Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 717 résultats.
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data Platform Enablement Engineer

Publiée le
AWS Cloud
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Freelance

Mission freelance
Chef de projet technique Data plateforme - Nantes

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Freelance
CDI

Offre d'emploi
Administrateur de bases de données H/F

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Freelance
CDI

Offre d'emploi
DEVOPS AWS

Publiée le
Ansible
Argo CD
AWS Cloud

12 mois
10k-40k €
100-500 €
Île-de-France, France
Télétravail partiel
Vous concevez et automatisez des environnements cloud tout en assurant la stabilité, la sécurité et l’efficacité des plateformes AWS. Vous déployez des pipelines CI/CD, supervisez les ressources, optimisez la performance réseau et garantissez un fonctionnement fiable des systèmes. Vous participez aussi à l’évolution continue des architectures et aux initiatives d’amélioration technique. Vous renforcez l’automatisation, améliorez la fiabilité et soutenez l’évolution des infrastructures cloud AWS.
Freelance

Mission freelance
Consultant Expert en Sécurité Opérationnelle - IAM CLOUD

Publiée le
AWS Cloud
Azure
CI/CD

1 an
400-600 €
Paris, France
Dans le cadre d’un projet stratégique mené par une grande organisation basée à Paris, nous recherchons un consultant expérimenté en sécurité opérationnelle , avec une expertise pointue en Identity and Access Management (IAM) sur les environnements Cloud Public : Google Cloud Platform (GCP) , Microsoft Azure et Amazon Web Services (AWS) . Le consultant rejoindra une équipe d’experts en sécurité Cloud pour renforcer les dispositifs IAM, accompagner les équipes projets et garantir la conformité aux politiques de sécurité internes. Vos missions principales : Auditer les environnements Cloud existants (GCP, Azure, AWS) afin d’identifier les vulnérabilités et les axes d’amélioration en matière de gestion des identités et des accès. Concevoir une stratégie IAM robuste , alignée sur les besoins métiers et les exigences de sécurité, incluant la gestion des permissions, des rôles et des politiques d’accès. Implémenter les meilleures pratiques de sécurité , notamment via des outils comme AWS SCP, GCP Deny Policy et les mécanismes de contrôle natifs des plateformes Cloud. Accompagner les équipes projets , en les formant aux concepts IAM et en les sensibilisant aux enjeux de sécurité. Documenter les processus et configurations , afin d’assurer la traçabilité et la pérennité des dispositifs mis en place.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance

Mission freelance
Senior Analytics Engineer

Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft Power BI

6 mois
550-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans un contexte d’hypercroissance, nous recherchons un Senior Analytics Engineer pour rejoindre l’équipe Data et contribuer à structurer, fiabiliser et faire évoluer la plateforme analytique de notre client dans le secteur de la mutuelle Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). Automatiser les traitements pour améliorer la performance et la fiabilité des données. Mettre en place la gouvernance des données : catalogage, gestion des métadonnées, droits d’accès. Concevoir et optimiser des modèles de données adaptés aux besoins métier (AWS, Redshift…). Garantir les performances des bases de données, y compris sur de grands volumes. Collaborer avec les Data Analysts, Data Engineers et IA Engineers pour répondre aux besoins de l’entreprise. Participer à la création de tableaux de bord et reporting (Power BI) en assurant l'exactitude des données. Assurer la disponibilité des données pour les prises de décision stratégiques. Apporter une expertise technique et accompagner les équipes sur les bonnes pratiques analytiques. Former et soutenir les utilisateurs métier sur les outils data. Mettre en place des contrôles qualité et détecter les anomalies via le monitoring. S’assurer de la conformité aux réglementations sur la confidentialité et la sécurité (GDPR, CCPA).
Freelance

Mission freelance
Chef de projet Data

Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Freelance
CDI

Offre d'emploi
Ingénieur/architecte cloud Ops - AWS

Publiée le
AWS Cloud
DevOps
DevSecOps

1 mois
47k-69k €
400-650 €
Île-de-France, France
Télétravail partiel
Opportunité Freelance - Architecte Cloud AWS 📍 Localisation : Paris + télétravail partiel ⏳ Durée : format pre-embauche - internalisation rapide prévue 🗓️ ASAP - Urgent Je recherche un expert Cloud pour piloter la conception et l’évolution des plateformes OVH / AWS pour l'un de mes clients (éditeur de logiciels) 🎯 Missions clés : Définir et mettre en œuvre des architectures Cloud sécurisées et scalables Gouvernance des environnements IaaS/PaaS/SaaS IaC et pratiques DevSecOps Mise en place de solutions multi-régions, conteneurs, serverless
Freelance

Mission freelance
H/F - Architecte VMware NSX-T

Publiée le
Ansible
Architecture
AWS Cloud

3 mois
550-700 €
Paris, France
Télétravail partiel
Au sein du département Network Product , la ligne de produits Data Center & Cloud est responsable de la gestion des infrastructures réseau de Data Centers et d’environnements Cloud. Cela comprend les routeurs, commutateurs, load balancers, accès Internet, interconnexions de Data Centers, backbone DWDM , ainsi que les environnements réseau Cloud (AWS, Azure, Google Cloud, Intercloud). Les services d’ingénierie associés couvrent la conception, la mise en œuvre et le support des produits et solutions réseau, dans le cadre du programme One Network visant à harmoniser et moderniser les infrastructures. Les principales missions sont : Contribuer à l’évolution à moyen et long terme des produits et à leur amélioration continue. Assurer le conseil, la sélection, la conception, la construction sécurisée et l’intégration des solutions réseau concernées. Faciliter la communication et la coordination entre les équipes fonctionnelles, les partenaires stratégiques et les fournisseurs. Garantir la qualité de service (QoS) dans la livraison et le support des solutions. Fournir une expertise technique de haut niveau sur les produits et services du périmètre.
Freelance
CDI

Offre d'emploi
Ingénieur Production / DevOps GCP (H/F)

Publiée le
Google Cloud Platform (GCP)
Jenkins
Maintien en condition opérationnelle (MCO)

2 ans
40k-47k €
340-440 €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Nous recherchons un Ingénieur Production / DevOps pour renforcer une équipe en charge du RUN, du MCO et du déploiement d’une nouvelle plateforme applicative. La mission s’inscrit dans le cadre d’un nouveau projet orienté GCP (Google Cloud Platform) , incluant de la CI/CD, de l’automatisation et des travaux de migration d’ordonnanceur. Missions principales 1. RUN / MCO Assurer le support de production applicative Suivre et résoudre les incidents et problèmes Gérer les transferts de fichiers et flux applicatifs Traiter les demandes via Jira 2. Déploiement & Projets Déployer de nouvelles plateformes applicatives Contribuer au lancement d’un nouveau projet sur GCP Collaborer avec les équipes Dev, Infra, Réseau et Sécurité 3. CI/CD & Automatisation Gérer et optimiser les pipelines CI/CD : XL Release / XL Deploy Jenkins Terraform (GCP) Automatiser les tâches récurrentes : Python Shell / Bash 4. Supervision & Ordonnancement Surveiller les environnements via : Zabbix Grafana Travailler sur les ordonnanceurs : VTOM (en place) Migration prévue vers Control-M Environnement technique Cloud : GCP CI/CD : XLR / XLD, Jenkins IaC : Terraform (GCP) Scripting : Python, Shell, Bash Supervision : Zabbix, Grafana Ordonnancement : VTOM → Control-M Gestion tickets : Jira Profil recherché Expérience confirmée en Production Applicative / DevOps Excellente maîtrise du RUN / MCO Compétences solides en CI/CD (Jenkins, XLR/XLD, Terraform) Très bon niveau en automatisation (Python, Shell, Bash) Connaissance ou pratique de GCP Maîtrise des outils de supervision Connaissance de VTOM ou Control-M Bon relationnel, rigueur, proactivité et autonomie
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
Architecte GCP

Publiée le
Azure
Datadog
DevSecOps

6 mois
Paris, France
Télétravail partiel
L’ Architecte GCP rejoindra le client au sein de l’équipe Engineering Platform , pour concevoir, automatiser et gouverner les environnements cloud GCP (et partiellement Azure ). Il aura un rôle clé dans la mise en place des landing zones , la définition des standards d’ingénierie , la gouvernance technique cloud et la sécurisation de la plateforme. Ses missions incluent la création de golden paths (templates, pipelines CI/CD, observabilité, sécurité), la standardisation de l’observabilité via Datadog et OpenTelemetry , l’intégration des outils GitHub Actions , SonarCloud et Datadog , et l’accompagnement des équipes de développement dans une démarche DevOps/Cloud Native . Ce poste stratégique requiert une excellente maîtrise de GCP , une approche DevSecOps , des compétences en Terraform , et un leadership technique affirmé dans un contexte de forte industrialisation et de gouvernance cloud à grande échelle .
Freelance

Mission freelance
Développeur Fullstack / AI (Python / FastAPI / React / GCP)

Publiée le
Python
React

8 mois
600 €
Saint-Ouen, Hauts-de-France
Télétravail partiel
Contexte Dans le cadre du développement d’un agent conversationnel interne à grande échelle, tu interviendras sur une application web fullstack intégrant des capacités génératives (Firefly, Gemini, APIs internes). L’objectif : améliorer la créativité et la productivité des collaborateurs au sein d’un groupe international. Tu travailleras en proximité avec les équipes Produit, Design et IA. Missions Front-end – Développer des interfaces modernes, performantes et responsives – Implémenter les maquettes UI/UX en React, TypeScript, ViteJS et Material UI – Construire des composants modulaires et maintenables Back-end – Concevoir et développer des APIs en Python (FastAPI) – Implémenter des fonctionnalités backend robustes et scalables – Concevoir, maintenir et optimiser la base de données Firestore – Exposer les endpoints nécessaires au front-end Transversal – Intégrer des APIs génératives (Firefly, Gemini, APIs internes) – Respecter les bonnes pratiques de dev : tests, documentation, CI – Travailler en équipe avec les designers, PM et ingénieurs IA – S’adapter à une possible migration backend future vers Next.js Environnement technique Cloud & Infra – GCP : Cloud Run, Firestore, Cloud Storage Back-end – Python – FastAPI Front-end – React – TypeScript – ViteJS – Material UI Fullstack – Très bonne maîtrise front + back – Connaissance souhaitée de Next.js Profil recherché – 5 à 8 ans d’expérience en développement fullstack – Solide expérience en Python + FastAPI – Excellente maîtrise de React + TypeScript – Déjà travaillé dans un environnement GCP (ou cloud équivalent) – À l’aise avec les APIs génératives – Rigueur, bonnes pratiques, sens produit – Capacité à travailler sur un produit utilisé à grande échelle
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
2717 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous