Le poste Senior Data Engineer
Partager cette offre
La squad Data Connect dĂ©veloppe des produits data augmentĂ©s par lâIA pour :
accélérer la livraison des projets data
faciliter lâaccĂšs Ă la donnĂ©e legacy
alimenter différents consommateurs (Power BI, data hubs, produits digitaux, Cognite, etc.)
garantir une donnée fiable, gouvernée et monitorée
Construire, industrialiser et optimiser des pipelines de données robustes et scalables, en environnement cloud (principalement Azure + Databricks), avec un fort enjeu :
đ ingestion, transformation, qualitĂ©, exposition et monitoring de la donnĂ©e
đ§ Missions clĂ©s1. Architecture & conception dataAnalyser les besoins mĂ©tiers et techniques
Proposer des solutions data robustes et industrialisables
Travailler avec architectes, data scientists et domain managers
Automatiser les pipelines de données sur :
Databricks
Azure Data Factory (ADF)
Cognite Data Fusion
Gérer ingestion, stockage, transformation et exposition
Mettre en production des flux data fiables et scalables
Développer des outils de Data Monitoring / Data Connect
Assurer :
complétude
qualité
épuration
enrichissement des données
Mettre en place des mĂ©canismes dâobservabilitĂ©
Participer aux workshops produit
Améliorer les outils internes (monitoring, exposition, data lineage)
Standardiser les pipelines et scripts
Renforcer la documentation et la traçabilité
Expert : SQL, Python, Kafka
Confirmé : Spark, Databricks, Docker, REST APIs, Cognite Data Fusion
Avancé : Azure Machine Learning, LLM
IA Agentic : niveau confirmé
Un profil :
trĂšs solide en data engineering (industrialisation + production)
orienté streaming & ingestion (Kafka fort enjeu)
Ă lâaise avec les environnements cloud Azure + Databricks
capable de gérer des sujets data quality / observabilité
avec une ouverture IA (LLM, agentic AI, ML pipelines)
autonome et orienté produit
Senior Data Engineer spĂ©cialisĂ© dans la conception et lâindustrialisation de pipelines data en environnement cloud Azure et Databricks. Expert en ingestion et streaming (Kafka), il/elle construit des architectures robustes orientĂ©es production, avec une forte culture de la data quality, du monitoring et de lâobservabilitĂ©. Ă lâaise dans des contextes complexes mĂȘlant legacy data, produits data et IA (LLM / ML), il/elle contribue Ă©galement Ă la standardisation et Ă lâamĂ©lioration continue des plateformes data.
Profil recherché
La squad Data Connect dĂ©veloppe des produits data augmentĂ©s par lâIA pour :
accélérer la livraison des projets data
faciliter lâaccĂšs Ă la donnĂ©e legacy
alimenter différents consommateurs (Power BI, data hubs, produits digitaux, Cognite, etc.)
garantir une donnée fiable, gouvernée et monitorée
Construire, industrialiser et optimiser des pipelines de données robustes et scalables, en environnement cloud (principalement Azure + Databricks), avec un fort enjeu :
đ ingestion, transformation, qualitĂ©, exposition et monitoring de la donnĂ©e
đ§ Missions clĂ©s1. Architecture & conception dataAnalyser les besoins mĂ©tiers et techniques
Proposer des solutions data robustes et industrialisables
Travailler avec architectes, data scientists et domain managers
Automatiser les pipelines de données sur :
Databricks
Azure Data Factory (ADF)
Cognite Data Fusion
Gérer ingestion, stockage, transformation et exposition
Mettre en production des flux data fiables et scalables
Développer des outils de Data Monitoring / Data Connect
Assurer :
complétude
qualité
épuration
enrichissement des données
Mettre en place des mĂ©canismes dâobservabilitĂ©
Participer aux workshops produit
Améliorer les outils internes (monitoring, exposition, data lineage)
Standardiser les pipelines et scripts
Renforcer la documentation et la traçabilité
Expert : SQL, Python, Kafka
Confirmé : Spark, Databricks, Docker, REST APIs, Cognite Data Fusion
Avancé : Azure Machine Learning, LLM
IA Agentic : niveau confirmé
Un profil :
trĂšs solide en data engineering (industrialisation + production)
orienté streaming & ingestion (Kafka fort enjeu)
Ă lâaise avec les environnements cloud Azure + Databricks
capable de gérer des sujets data quality / observabilité
avec une ouverture IA (LLM, agentic AI, ML pipelines)
autonome et orienté produit
Senior Data Engineer spĂ©cialisĂ© dans la conception et lâindustrialisation de pipelines data en environnement cloud Azure et Databricks. Expert en ingestion et streaming (Kafka), il/elle construit des architectures robustes orientĂ©es production, avec une forte culture de la data quality, du monitoring et de lâobservabilitĂ©. Ă lâaise dans des contextes complexes mĂȘlant legacy data, produits data et IA (LLM / ML), il/elle contribue Ă©galement Ă la standardisation et Ă lâamĂ©lioration continue des plateformes data.
Environnement de travail
La squad Data Connect dĂ©veloppe des produits data augmentĂ©s par lâIA pour :
accélérer la livraison des projets data
faciliter lâaccĂšs Ă la donnĂ©e legacy
alimenter différents consommateurs (Power BI, data hubs, produits digitaux, Cognite, etc.)
garantir une donnée fiable, gouvernée et monitorée
Construire, industrialiser et optimiser des pipelines de données robustes et scalables, en environnement cloud (principalement Azure + Databricks), avec un fort enjeu :
đ ingestion, transformation, qualitĂ©, exposition et monitoring de la donnĂ©e
đ§ Missions clĂ©s1. Architecture & conception dataAnalyser les besoins mĂ©tiers et techniques
Proposer des solutions data robustes et industrialisables
Travailler avec architectes, data scientists et domain managers
Automatiser les pipelines de données sur :
Databricks
Azure Data Factory (ADF)
Cognite Data Fusion
Gérer ingestion, stockage, transformation et exposition
Mettre en production des flux data fiables et scalables
Développer des outils de Data Monitoring / Data Connect
Assurer :
complétude
qualité
épuration
enrichissement des données
Mettre en place des mĂ©canismes dâobservabilitĂ©
Participer aux workshops produit
Améliorer les outils internes (monitoring, exposition, data lineage)
Standardiser les pipelines et scripts
Renforcer la documentation et la traçabilité
Expert : SQL, Python, Kafka
Confirmé : Spark, Databricks, Docker, REST APIs, Cognite Data Fusion
Avancé : Azure Machine Learning, LLM
IA Agentic : niveau confirmé
Un profil :
trĂšs solide en data engineering (industrialisation + production)
orienté streaming & ingestion (Kafka fort enjeu)
Ă lâaise avec les environnements cloud Azure + Databricks
capable de gérer des sujets data quality / observabilité
avec une ouverture IA (LLM, agentic AI, ML pipelines)
autonome et orienté produit
Senior Data Engineer spĂ©cialisĂ© dans la conception et lâindustrialisation de pipelines data en environnement cloud Azure et Databricks. Expert en ingestion et streaming (Kafka), il/elle construit des architectures robustes orientĂ©es production, avec une forte culture de la data quality, du monitoring et de lâobservabilitĂ©. Ă lâaise dans des contextes complexes mĂȘlant legacy data, produits data et IA (LLM / ML), il/elle contribue Ă©galement Ă la standardisation et Ă lâamĂ©lioration continue des plateformes data.
Postulez Ă cette offre !
Trouvez votre prochaine mission parmi +9âŻ000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critÚres importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthĂšque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Senior Data Engineer
Craftman data
