Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 298 résultats.
CDI

Offre d'emploi
Data Engineer / BI (H/F)

HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS

46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
Dbt Technical Expert – Data Engineer Senior

Signe +
Publiée le
DBT

12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Freelance

Mission freelance
Data Engineer (1j/ semaine à Toulouse)

Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL

1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
CDI

Offre d'emploi
Data Ops Engineer AWS / Databricks H/F

DAVRICOURT
Publiée le
Databricks

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote

STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL

6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Freelance

Mission freelance
TECH LEAD - AWS DATA ENGINEER

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow

3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Freelance

Mission freelance
Sénior Data Engineer SQL & GCP

INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)

3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Freelance

Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt

CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)

bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD

36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Freelance

Mission freelance
Data Engineer - Azure / Databricks / Power BI

CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
298 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous