Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 307 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Offre premium
Freelance

Mission freelance
Data Engineer GCP

TEOLIA CONSULTING
Publiée le
BigQuery
Collibra
Python

12 mois
480-570 €
Paris, France
Teolia recherche pour l'un de ses clients dans le secteur des médias, un Data Engineer GCP. Dans le cadre du renforcement de la plateforme Data, vous interviendrez sur la qualité, la gouvernance et l’industrialisation des données . Vos missions principales Concevoir et mettre en œuvre des contrôles de qualité des données (Dataplex Universal Catalog) Industrialiser les contrôles via Terraform / Terragrunt Définir et produire des indicateurs de qualité des données Intégrer ces indicateurs dans le data catalog Collibra Construire et maintenir des pipelines data robustes et scalables Participer à la gouvernance des données et aux rituels de l’équipe Mettre en place et maintenir les infrastructures data et CI/CD Garantir la sécurité, la stabilité et l’évolutivité des environnements Contribuer à la documentation et à la veille technologique
Freelance
CDI

Offre d'emploi
Data Engineer

INFOTEL CONSEIL
Publiée le
ETL (Extract-transform-load)

3 ans
Niort, Nouvelle-Aquitaine
OBJECTIFS ET RESULTATS ATTENDUS DE LA MISSION: Au sein de l'équipe Maintenance de la Datafactory du Data Office du Groupe, vous assurez la maintenance corrective et évolutive des solutions Data du Groupe. A ce titre, vous serez amené à : Capter et stocker, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise Concevoir les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité Spécifier, développer et déployer des flux de données alimentant les applications Data : SAP BODS, SAP BW, SAP HANA et MS Azure Synapse / MS Fabric Assurer la maintenance et la supervision des différentes applications Data déployées en production et des infrastructures de données. Rédiger de la documentation fonctionnelle et technique LIVRABLES : Documentations techniques et fonctionnelles Reporting d'activités Autres
Freelance

Mission freelance
Data Engineer

The Yellow Office
Publiée le
Amazon S3
AWS Cloud
DBT

6 mois
Hauts-de-Seine, France
Data Engineer | AWS / Snowflake / DBT | IDF Nous recherchons plusieurs Data Engineers senior (5 ans d’expérience minimum) pour intervenir sur une data platform déjà en place, avec un vrai enjeu d’alimentation et de structuration des données pour les cas d’usage métiers. Ce n’est pas un rôle de build from scratch. La plateforme existe. L’objectif est de la faire vivre, de la renforcer et d’industrialiser les usages. Contexte Vous intervenez sur une architecture Data moderne dans le cloud, avec des enjeux de performance, fiabilité et scalabilité. Vous participerez activement à l’alimentation des cas d’usage métiers et à la structuration des couches de données. Vos responsabilités • Alimenter et maintenir les pipelines de données • Transformer, traiter et modéliser les données • Construire et faire évoluer les couches métriques (architecture en 4 couches) • Concevoir des modèles en étoile adaptés aux usages analytiques • Garantir la qualité, la performance et la fiabilité des flux • Participer à l’industrialisation et à l’automatisation des déploiements Stack technique • AWS (S3 / Terraform / ... ) • Snowflake • DBT Une réelle maîtrise de Snowflake et DBT est attendue. Nous cherchons un profil opérationnel, capable d’optimiser et de produire, pas uniquement de comprendre la stack. Profil recherché • Minimum 5 ans d’expérience en Data Engineering • Solide expérience AWS en environnement production • Très bonne maîtrise de Snowflake et DBT • Expérience sur des architectures data en couches • Bonne compréhension de la modélisation analytique (schémas en étoile) • Autonomie et culture qualité forte Informations mission • Localisation : Île-de-France / 92 • Contrat : Freelance • Durée : 6 mois renouvelables (mission longue) • Démarrage : à définir • TJM : Selon expérience Nous cherchons des profils capables d’apporter de la rigueur technique et de la valeur métier sur une plateforme déjà structurée. Contact
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Data Engineer Snowflake

CHOURAK CONSULTING
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

3 mois
350-450 €
Lille, Hauts-de-France
Nous recherchons un Data Engineer Snowflake confirmé pour intervenir sur la conception, le développement et la maintenance d’ infrastructures et pipelines de données au sein d’un environnement data moderne et exigeant. 🎯 Contexte de la mission : Vous serez responsable de garantir des données fiables, sécurisées et optimisées pour des usages analytiques et opérationnels. Les activités d’ ingestion, transformation, stockage et mise à disposition des données seront au cœur de votre rôle. ⚙️ Vos missions principales : Concevoir et développer des pipelines de données performants et scalables . Assurer la qualité, la cohérence et la sécurité des données. Optimiser les bases de données et les flux de traitement. Collaborer étroitement avec les Data Scientists, Data Analysts et équipes métiers . Mettre en place des outils de monitoring, gouvernance et observabilité . Garantir la conformité RGPD des traitements de données.
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
ELK
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance
CDI

Offre d'emploi
Data Engineer Python

Atlanse
Publiée le
CI/CD
Clarity
Jenkins

3 ans
55k-60k €
400-500 €
Paris, France
Vous rejoignez l’équipe Architecture, Cloud et API, composée d’experts en conception et mise en œuvre d’architectures orientées services. Votre rôle Développement Python · Concevoir et développer des composants Python dans le cadre du projet Portfolio Clarity · Implémenter des flux de données fiables · Garantir la qualité du code Amélioration de l’existant et qualité · Réaliser des revues de code structurées et proposer des améliorations concrètes · Contribuer à l’évolution de l’architecture applicative existante Industrialisation, CI/CD et documentation · Intégrer les développements dans la chaine CI/CD · Documenter les réalisations
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
CDI
Freelance

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
CDI

Offre d'emploi
Data Engineer H/F

HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : qojvej3era
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
MySQL

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Microsoft Power BI

6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous