Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 19 résultats.
Freelance

Mission freelance
Data Engineer confirmé (F/H) – Nantes (3jours par semaine sur site)

AKERWISE
Publiée le
Python

12 mois
340-370 €
Nantes, Pays de la Loire

Dans le cadre du renfort d’une équipe Data au sein d’un grand acteur du secteur public, nous recherchons un·e Data Engineer expérimenté·e pour assurer la continuité d’activité sur des projets stratégiques de valorisation de données clients et opérationnelles. La mission s’inscrit dans un contexte de consolidation des données, de mise à disposition d’indicateurs métiers, et d’industrialisation des traitements au sein d’une plateforme Data de grande ampleur. Localisation : Nantes (présence sur site 3 jours / semaine) Démarrage : ASAP Durée : Mission longue Expérience requise : 4 ans minimum 🎯 Vos principales missions : Participer à la compréhension des besoins métiers et des enjeux Data Définir le périmètre de données nécessaire à chaque projet Concevoir et optimiser les modèles de données et pipelines (Python / PySpark) Créer les tables et vues nécessaires aux différents cas d’usage Industrialiser les traitements en lien avec les équipes Ops Data Assurer un rôle de référent technique au sein de l’équipe Accompagner les travaux liés à la migration de plateforme

Freelance

Mission freelance
Data Engineer confirmé Maintenance et Inspection pour la Digital Line

Signe +
Publiée le
Java
Python
Scala

6 mois
320-370 €
Pau, Nouvelle-Aquitaine

Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un "Data Engineer confirmé Maintenance et Inspection pour la Digital Line". Objectifs et livrables : Conception, développement et maintenance de pipeline de données évolutifs sur la plateforme Data Fabric, incluant ingestion et optimisation des performances et de l'usage de la donnée Garantir la qualité, sécurité et intégrité des données tout au long des pipelines Collaboration transversale avec les équipes Data Science, BI, Devops Réalisation d'audits techniques et proposition d'améliorations continues

Freelance

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)

skiils
Publiée le
DBT
Google Cloud Platform (GCP)

3 ans
130-230 €
Paris, France

Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Freelance

Mission freelance
Data Engineer Databricks Confirmé – Projet de Migration

Groupe Aptenia
Publiée le
Apache Spark
Azure
Databricks

3 mois
400-450 €
France

Nous recherchons un Data Engineer confirmé pour accompagner un programme stratégique de migration vers Databricks sur Azure. ✅ 4 jours de TT, 1 jour de présentiel à paris ✅ Conseiller le client sur les meilleurs pratiques à adopter ✅ Participer à la migration d’une plateforme legacy vers Databricks ✅ Développer et optimiser des pipelines Spark sur Azure ✅ Collaborer avec les Data Architects et Data Scientists dans un contexte à fort enjeu métier ✅ Améliorer la performance, la robustesse et l’automatisation des flux de données

Freelance

Mission freelance
Data ingénieur Confirmé

MLMCONSEIL
Publiée le
Apache Spark
Git
Hadoop

6 mois
100-350 €
Orléans, Centre-Val de Loire

Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi... ... ... ... .... ... .... ... ... ... .... ..... .. .... .. .. .. .. . .. ... .. .. .. .. . .. . . . .. . . .. . .. . .. . .. . . .. . . .. . . .. . . . . .. . . . . . . .. . . .. . . .. .. . . . . . . .. . . . . . . . . . . . . . .. . .

Freelance

Mission freelance
Data Engineer Apache Flink H/F

LeHibou
Publiée le
Apache
Azure Kubernetes Service (AKS)
Elasticsearch

4 mois
500-620 €
Paris, France

Dans le cadre de la mise en production d’une solution de traitement de flux temps réel , une grande entreprise internationale du secteur du luxe et de la beauté recherche un Data Engineer confirmé pour finaliser et industrialiser un POC développé avec Apache Flink (Python) . L’objectif principal est de stabiliser la pipeline de streaming existante , d’assurer la compatibilité avec l’infrastructure actuelle (notamment Elasticsearch), et de garantir un passage en production performant et fiable . Le consultant interviendra au sein d’une équipe Data pluridisciplinaire (Data Engineers, DevOps, experts cloud) et jouera un rôle clé dans la réussite du projet, de la revue technique du POC jusqu’à la mise en production sur Kubernetes .

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance

Mission freelance
Data Engineer (PySpark)

KEONI CONSULTING
Publiée le
PySpark

18 mois
100-400 €
Paris, France

CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.

CDI

Offre d'emploi
Data Engineer (PySpark)

Codezys
Publiée le
Hadoop
PySpark

40k-45k €
Seine-Saint-Denis, France

Métier et fonction : Data Management Data Engineer Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Techniques et outils maîtrisés : Hadoop, PySpark (2 ans) Secteur d'activité : Administration Publique Description de la prestation : Dans le cadre d’un projet stratégique en recouvrement et lutte contre la fraude, un Data Engineer confirmé spécialisé en PySpark est recherché pour une équipe pilotée par un Tech Lead expérimenté. Le projet manipule plusieurs milliards d’événements par jour, visant à développer des cas d’usage à fort impact comme la détection d’anomalies et l’optimisation des processus de recouvrement. Missions principales : Construire et optimiser des pipelines de données sous PySpark. Participer à la mise en place d’architectures Big Data sur environnement Hadoop (optionnel). Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes data science et métier pour industrialiser des cas d’usage (fraude, scoring, recouvrement automatisé). Gérer des problématiques de scalabilité et de traitement en temps réel ou batch. Assurer la sécurité et la conformité des traitements de données sensibles.

Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
API REST
Azure
Azure Data Factory

12 mois
Orly, Île-de-France

Lieu de mission : Orly (94) Type de mission : Prestation longue durée Contexte de la mission : Le client, basé à Orly, cherche à renforcer ses équipes Data en recrutant un Data Engineer confirmé. La mission consiste à mettre en place et industrialiser des pipelines de données dans un environnement Cloud Azure, en garantissant performance, fiabilité et sécurité. Responsabilités principales Concevoir, développer et maintenir des pipelines de données performants et automatisés. Intégrer et transformer des données issues de différentes sources (APIs, bases SQL, etc.). Participer à la mise en place et à l’optimisation des environnements Cloud Data sur Azure. Automatiser le déploiement et l’infrastructure Data à l’aide de Bicep. Garantir la qualité, la sécurité et la traçabilité des données. Collaborer avec les équipes Data, Développement et DevOps pour l’intégration des solutions. Documenter processus et bonnes pratiques. Compétences techniques requises Langage : Python (indispensable) Cloud & Data : Azure Data Factory, SQL Azure Infrastructure as Code : Bicep Intégration & APIs : API REST CI/CD & DevOps : Git, Azure DevOps Architecture : Microservices et bonnes pratiques DevOps

Freelance

Mission freelance
Data Engineer SPARK PYTHON Confirmé (F/H) - TOURS

Espace Freelance
Publiée le
Java

3 mois
400-510 €
Tours, Centre-Val de Loire

REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data

Freelance

Mission freelance
Consultant (H/F) Tech Lead Data Engineer GCP

HOXTON PARTNERS
Publiée le
Google Cloud Platform (GCP)

12 mois
Paris, France

Nous recherchons un Tech Lead Data Engineer confirmé pour une mission longue à Paris. Le consultant sera responsable de la création et du maintien d’une architecture de pipelines de données optimale, en automatisant les processus manuels, en optimisant la livraison de données et en repensant l’infrastructure pour plus d’évolutivité. Il s’agira d’assembler des ensembles de données volumineux et complexes répondant aux besoins opérationnels, de créer l’infrastructure nécessaire à l’extraction, la transformation et le chargement des données depuis diverses sources grâce aux technologies SQL et BigQuery, et de développer des outils d’analyse permettant de fournir des insights exploitables sur l’acquisition de clients, l’efficacité opérationnelle et la performance globale. Le consultant collaborera étroitement avec les experts data et analytics pour améliorer continuellement la fonctionnalité des systèmes de données.

Freelance

Mission freelance
Data Engineer GCP confirmé

Montreal Associates
Publiée le

10 mois
Lille, Hauts-de-France

Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.

Freelance
CDI

Offre d'emploi
DATA ENGINEER AWS / TALEND

UCASE CONSULTING
Publiée le
AWS Cloud
PySpark
Talend

6 mois
40k-59k €
400-890 €
Paris, France

🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.

Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Publiée le

10 mois
650-727 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Freelance
CDI

Offre d'emploi
Data Engineer SQL Server (T-SQL)

HIGHTEAM
Publiée le
BI
Microsoft Power BI
OLAP (Online Analytical Processing)

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives

19 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous