Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 298 résultats.
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
Informatica PowerCenter
SAP BI
SQL

6 mois
400-450 €
Toulouse, Occitanie
Nous recherchons un Data Engineer expérimenté / Tech Lead disposant de solides compétences en SQL, ETL et outils de reporting . Vous interviendrez sur un domaine en charge du chargement, de la transformation et de la fiabilisation des données . Vos missions principales : Participer aux projets en cours et à venir (corrections, évolutions, nouvelles fonctionnalités) Concevoir, développer et optimiser les flux ETL Développer et maintenir les requêtes SQL complexes Contribuer à l’amélioration continue de l’architecture data Assurer la qualité, la performance et la cohérence des données Collaborer étroitement avec une équipe de 8 personnes Le poste s’inscrit dans une logique long terme , avec de réelles perspectives si les compétences techniques et l’intégration à l’équipe sont au rendez-vous. Anglais obligatoire (contexte international).
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Freelance

Mission freelance
Data Engineer - ETL Specialist

Insitoo Freelances
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data Engineer for our client in Brussels. Key responsibilities : Implementing new or modified functionality on the data platform and building data pipelines on this data platform Working with other data engineers, a functional analyst, solution architect, technical architect, and QA engineer. Together, they form an agile team. Relying on your technical knowledge and skills in Confluent Data Platform, Python, Airflow, NIFI, etc., to build functionality and data pipelines. Programming and delivering working code Consulting with colleagues Validating solutions and reviewing colleagues' code, following up on operational issues Writing documentation Evaluating and estimating user stories.
Freelance

Mission freelance
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Freelance

Mission freelance
Data Engineer / Développeur Talend

Atlas Connect
Publiée le
Data governance
Data Lake
Data modelling

12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
298 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous