L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 269 résultats.
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Mission freelance
Data Engineer (Semarchy) – Gouvernance & Qualité de Données
Publiée le
Semarchy
SQL
6 mois
350-500 €
Paris, France
Télétravail partiel
Dans le cadre d’un vaste programme de modernisation du Système d’Information, vous intégrerez une équipe Data composée de plus de 100 collaborateurs, dédiée à la gouvernance et à la qualité de service des données. Vous contribuerez activement au développement, à l’automatisation et au suivi des traitements Data sur des environnements complexes et fortement intégrés. Vos missions principales : Développer des outils et process de gouvernance et de pilotage de la qualité des données Concevoir et maintenir des traitements ETL industrialisés ou ad hoc pour fiabiliser les données Participer au suivi de production et à l’analyse des incidents N1/N2 Produire des rapports et indicateurs de pilotage de la qualité de service Contribuer à l’ amélioration continue des pratiques Data
Offre d'emploi
Data Engineer IA
Publiée le
21 621 €
Lavaur, Occitanie
Télétravail partiel
En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
Offre premium
Offre d'emploi
Data Engineer Snowflake DBT
Publiée le
BigQuery
CI/CD
Databricks
1 jour
40k-45k €
100-480 €
Paris, France
Télétravail partiel
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Offre d'emploi
Data engineer / expert Talend
Publiée le
AWS Cloud
Azure
Data Warehouse
1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Data Engineer Talend (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible. Exemples de missions à venir : Conception, développement et optimisation de flux ETL avec Talend (Open Studio ou Talend Data Integration) Intégration et transformation de données issues de sources variées (bases SQL/NoSQL, API, fichiers plats, ERP…) Mise en place de pipelines de données fiables et performants Optimisation des performances et gestion des volumes importants de données Participation à la définition et à la mise en œuvre d’architectures Data (Data Lake, Data Warehouse, Cloud)
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Data Engineer
Publiée le
Apache Spark
Data visualisation
Java
12 mois
460-500 €
Toulouse, Occitanie
Télétravail partiel
Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Offre d'emploi
Data Engineer
Publiée le
Azure
DevOps
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Offre d'emploi
Data Engineer
Publiée le
Collibra
Python
Snowflake
6 mois
Liège, Belgique
Télétravail partiel
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)
Publiée le
Microsoft Fabric
Python
6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
269 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois