Find your next tech and IT Job or contract Databricks

Job Vacancy
Lead Data Engineer Azure – Data Gouvernance & Plateformes Modernes
Dans le cadre d’un renfort stratégique, notre client recherche un Lead Data Engineer Azure pour intervenir sur des projets de transformation autour de la data, dans un environnement technique et fonctionnel exigeant. Le poste implique un rôle central dans la mise en place de plateformes data modernes et de pratiques de gouvernance des données. Missions : Définir et piloter l’ architecture data autour de concepts modernes : data mesh, data catalog , gouvernance des données. Participer à la mise en place de plateformes de data modeling et de catalogues de données dans un cadre de data gouvernance . Concevoir et implémenter des solutions techniques avec des outils tels que Databricks , Snowflake , Azure Synapse , etc. Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et produire une documentation technico-fonctionnelle claire. Accompagner les équipes projet sur les bonnes pratiques d’ingénierie data , assurer une vision transverse et contribuer à l’ acculturation data au sein de l’organisation.

Job Vacancy
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Job Vacancy
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.
Contractor job
Senior Engineer - Migrations
Mission / Freelance / Longue / France / Paris / Hyrbide / Senior Engineer / Migration / Typescript / AWS / Kafka / SQL / Anglais Notre partenaire recherche plusieurs Senior Engineers – Migrations pour renforcer son équipe d’ici la fin de l’année. L’objectif : accompagner la migration de systèmes clients complexes vers une plateforme innovante. Localisation : Paris (Gare du Nord), 3j/semaine sur site Démarrage : ASAP Durée : mission longue Langue : Anglais professionnel courant (obligatoire) Vos missions Au sein de l’équipe Client Engineering, vous interviendrez sur : La migration de comptes et données clients depuis des systèmes legacy vers les environnements modernes de la plateforme. L’analyse de données client pour comprendre le comportement utilisateur et orienter les stratégies de migration. Le développement d’outils backend et de pipelines performants pour automatiser et fiabiliser les processus de transfert. La collaboration transverse avec les équipes produit, data et infrastructure afin d’assurer une intégration fluide et une satisfaction client optimale. La participation à la définition des standards techniques et à la mise en place de bonnes pratiques sur un contexte à forte croissance. Stack technique TypeScript, Node.js, Databricks, AWS (serverless), Kafka, GraphQL, Docker, Kubernetes, GitHub Actions. Profil recherché Solide expérience en développement backend (TypeScript idéalement, ou autre langage moderne avec volonté d’évoluer dessus). Maîtrise des architectures événementielles et des systèmes à base de queues (Kafka, SNS/SQS…). Bonne expérience du cloud AWS et des environnements serverless. Connaissances en base de données SQL/NoSQL, performance et optimisation. Capacité à évoluer dans un environnement international, collaboratif et exigeant. Anglais courant indispensable (environnement 100% anglophone). Serait un vrai plus Expérience en data engineering (Databricks, pipelines, data mapping). Participation à un programme de migration ou à des projets d’intégration complexe. Si cette opportunité vous intéresse, vous pouvez y postuler ou me contacter directement (Christopher Delannoy).
Contractor job
Data Engineer AWS / Databricks
Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Contractor job
Tech lead data engineer H/F
🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.

Job Vacancy
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Job Vacancy
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Job Vacancy
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.
Contractor job
Directeur de Programme Data – Migration Databricks
Le client lance un programme de transformation de sa plateforme data, visant à : Migrer l’environnement legacy vers Databricks Implémenter Unity Catalog pour la gouvernance centralisée Déployer Azure Purview pour la traçabilité, le lineage, et la conformité RGPD Harmoniser les pratiques de gouvernance au sein de plusieurs entités européennes L’environnement est fortement réglementé, avec des interactions régulières avec la direction conformité, sécurité, IT, métiers et DPO. Le directeur de programme sera responsable de : La coordination stratégique de plusieurs chantiers techniques et fonctionnels L’animation des comités de gouvernance La priorisation, l’arbitrage et la gestion des risques Le reporting au COMEX groupe

Job Vacancy
Data Engineer GEN IA
Expertise technique GenAI • Développer les briques techniques nécessaires à l’exécution des agents GenIA (API, orchestrateurs, connecteurs, sécurité, monitoring, vectorisation…). • Garantir la robustesse, la scalabilité et la maintenabilité des composants sur Databricks. • Déployer les composants techniques en collaboration avec l’équipe Plateforme. Conception et développement d’agents GenIA • Participer à la définition fonctionnelle des agents avec le tech lead et l’architecte en lien avec le Product Owners et les métiers. • Développer les agents en intégrant les modèles IA via des frameworks comme LangChain. • Tester, valider et optimiser les performances des agents. Travail en équipe projet dans une Squad • Travailler sous l’animation d’un Scrum Master, en collaboration avec un Tech Lead et un Architecte. • Participer aux rituels agiles (daily, sprint planning, review, rétrospective). • Être force de proposition sur les choix techniques et les bonnes pratiques de développement.
Contractor job
Ingénieur Cloud Azure
Construire et déployer des infrastructures Cloud Public (principalement sur Microsoft Azure) pour les projets Data. Industrialiser les architectures cibles et configurer les équipements via des chaînes CI/CD automatisées. Assurer la fiabilité et la sécurité des plateformes , en mettant en place la supervision, la haute disponibilité et les bonnes pratiques de sécurité Cloud. Collaborer avec les équipes développement, sécurité et projets pour accompagner la transformation Data dans un environnement Agile.

Job Vacancy
Ingénieur Cloud Data
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. vos missions: Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures.-Participer aux phases de validation technique lors des mises en production ou des évolutions. Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation
Contractor job
Data Engineer Databricks Confirmé – Projet de Migration
Nous recherchons un Data Engineer confirmé pour accompagner un programme stratégique de migration vers Databricks sur Azure. ✅ 4 jours de TT, 1 jour de présentiel à paris ✅ Conseiller le client sur les meilleurs pratiques à adopter ✅ Participer à la migration d’une plateforme legacy vers Databricks ✅ Développer et optimiser des pipelines Spark sur Azure ✅ Collaborer avec les Data Architects et Data Scientists dans un contexte à fort enjeu métier ✅ Améliorer la performance, la robustesse et l’automatisation des flux de données

Job Vacancy
Ingénieur devOps
Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation BigData Az DataLake, Az EventHub, Databricks, ADF - Confirmé - Impératif Microsoft Cloud Azure - Confirmé - Impératif Infrastructure as a code (ARM, YAML) - Confirmé - Impératif Intégration/déploiement continu (Git, Az DevOps) - Confirmé - Impératif Français Courant (Impératif) Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation
Contractor job
Analytics Engineer - Microsoft Azure (H/F)
Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country