Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 28 résultats.
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt

CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Freelance

Mission freelance
Senior Data Engineer Palantir

Orcan Intelligence
Publiée le
Big Data
Databricks

9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT ELT Senior

Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI

1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Freelance

Mission freelance
Développeur open source H/F

Insitoo Freelances
Publiée le
C/C++
Python

2 ans
500-530 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur open source H/F à Paris, France. Contexte : Dans le cadre d’un projet innovant de transformation digitale, nous recherchons un Développeur IA Senior pour concevoir et déployer une solution intelligente dédiée au traitement automatisé de données issues de systèmes industriels . L’objectif : développer une nouvelle génération d’outils permettant d’exploiter efficacement des mesures terrain, détecter des anomalies et contribuer à des stratégies de maintenance prédictive . Vous interviendrez sur l’ensemble du cycle de développement d’une solution IA, avec notamment : Conception d’une architecture de traitement de données autonome Développement d’algorithmes permettant : L’identification automatique de signaux spécifiques dans des séries temporelles La détection d’anomalies et leur qualification Mise en place de pipelines de traitement de données intégrant des modèles d’IA Analyse et corrélation de données multiples pour identifier des signaux faibles Participation à la construction de datasets et à leur exploitation Définition et suivi des indicateurs de performance (KPI) Intégration dans un environnement Big Data Industrialisation de la solution (performance, scalabilité, maintenance) Rédaction de la documentation technique et suivi projet 🛠️ Environnement technique Langages : Python, C++ IA / Data : Machine Learning, traitement de signaux, analyse de données Architecture : pipelines data, edge computing, systèmes distribués Méthodologies : Agile 👤 Profil recherché Expérience confirmée en tant que développeur IA / data engineer senior Solide expérience en développement de solutions IA en environnement industriel Bonne maîtrise des problématiques de traitement de données complexes Capacité à intégrer des solutions dans un existant technique contraint Connaissances en : systèmes critiques cybersécurité optimisation des ressources ✅ Les + du poste Projet à fort impact technologique et opérationnel Environnement mêlant IA, industrie et innovation Participation à la mise en place d’une solution scalable et auto-apprenante
Freelance

Mission freelance
Sénior Data Engineer SQL & GCP

INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)

3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Azure
Databricks
Python

9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL 👤 Profil recherché Tech Lead Data / Data Engineer senior Expérience : 7 ans minimum Solide expertise sur Databricks et les architectures data modernes Expérience dans des environnements legacy type SAP BW appréciée Capacité à accompagner une transformation technique et culturelle 🤝 Soft skills Leadership naturel et capacité à fédérer Excellente communication avec des interlocuteurs techniques et métiers Esprit structurant et orienté solutions Pédagogie et accompagnement des équipes 💡 Mission à fort impact avec une dimension stratégique et un rôle clé dans la transformation data.
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Alternance

Offre d'alternance
Senior Data Engineer CDI (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
CI/CD

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

28 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous