Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 236 résultats.
Freelance

Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)

Publiée le
Microsoft Fabric
Python

6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)

Publiée le
Azure Data Factory
Azure Logic Apps
Databricks

1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Airflow
AWS Cloud
Dataiku

12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance
CDI

Offre d'emploi
Data engineer

Publiée le
Big Data
BigQuery
DBT

1 an
40k-50k €
400-550 €
Île-de-France, France
Télétravail partiel
Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE

Publiée le
Apache Spark
Azure
Databricks

3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
CDI

Offre d'emploi
Data Engineer IA

Publiée le

21 621 €
Lavaur, Occitanie
Télétravail partiel
En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
236 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous