Find your next tech and IT Job or contract Databricks
Your search returns 84 results.
Premium Job
Job Vacancy
Data Architecte Databricks - Paris
Published on
Databricks
65k-80k €
Paris, France
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Premium Job
Contractor job
TECH LEAD ENGINEER (AZURE/DATABRICKS) H/F
Published on
Azure Data Factory
CI/CD
Databricks
3 months
500-580 €
La Défense, Ile-de-France
Hybrid
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Tech Lead/Data Engineer spécialisé Databricks / Azure H/F . Vous piloterez techniquement une squad transverse de 5 à 10 personnes, garantirez la qualité logicielle, la cohérence d’architecture, la performance des pipelines data et la bonne mise en production. Vous jouerez un rôle clé dans la conception, l’optimisation et l’industrialisation de produits data à grande échelle dans un environnement Cloud Azure et Databricks exigeant. Vous animerez les rituels techniques, accompagnerez les membres de la squad et assurerez la communication fluide avec les parties prenantes métier et IT. Objectif et livrables: Architectures data (ingestion, transformation, serving) validées et documentées. Pipelines Databricks productisés, monitorés, optimisés. Modules réutilisables / librairie d’ingénierie data. Pipelines CI/CD + scripts Terraform prêts pour déploiement. KPIs mensuels (qualité données, SLA, latence, incidents). Plan de montée en compétences de la squad. Compétences attendues : Maîtrise avancée de Databricks (jobs, clusters, notebooks, optimisation). Expertise PySpark pour traitements batch & streaming. Excellente pratique Python et bonne connaissance Java . Très bonne maîtrise Azure Data Services : ADLS, Blob, Data Factory, Synapse, Event Hubs. Pratique confirmée de Terraform , CI/CD (GitHub Actions, Azure DevOps). Compétences en monitoring (Datadog, Prometheus, Log Analytics), tests automatisés, code review. Connaissances SQL et bases NoSQL. Architecture data, bonnes pratiques de sécurité, RBAC, performance tuning.
Premium Job
Job Vacancy
Expert Colibra
Published on
AWS Cloud
Collibra
Databricks
3 months
45k-55k €
500-600 €
Hauts-de-Seine, France
Hybrid
Profil : Expert Collibra Responsabilités principales : Métadonnées & Traçabilité Vérifier si Collibra propose des connecteurs pour interagir avec les catalogues SMUS (AWS) et DBX. Définir comment Collibra peut ingérer les métadonnées et la traçabilité depuis AWS SMUS et le Unity Catalog de DBX. Déterminer la gestion de la traçabilité inter-systèmes (exemple : début d’une transformation sur AWS et fin sur DBX). Gestion des accès Définir l’intégration de Collibra avec AWS IAM / IDC / Lake Formation via les API de SMUS et avec le Unity Catalog de Databricks. Évaluer si Collibra peut automatiser l’octroi et la révocation des accès via des connecteurs existants ou via un développement dédié basé sur des API. Vérifier si Collibra propose un workflow de gestion des accès prêt à l’emploi et s’il est personnalisable. Déterminer si Collibra peut appliquer des règles d’accès au niveau des tables, colonnes ou lignes via une intégration avec les plateformes sous-jacentes. Définir comment les audits et journaux seront capturés lors des changements d’accès et si Collibra propose des revues périodiques des accès. Compétences requises : Collibra AWS Databricks Data Intelligence Platform
Job Vacancy
Ingénieur Databricks (F/H)
Published on
Databricks
Power BI Desktop
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Grenoble - 🛠 Expérience de 2 ans minimum Vous souhaitez rejoindre un projet data stratégique dans un environnement Azure ? 🚀 Cette mission est sans doute faite pour vous ! Nous recherchons un.e Data Ingénieur Databricks pour intégrer une équipe en charge de l’alimentation et de l’optimisation d’une plateforme Databricks dédiée au traitement de données sensibles liées à la sécurité💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Alimenter et maintenir une base de données Databricks dans un environnement Azure - Collaborer avec les différentes équipes internes dédiées aux sujets cybersécurité - Intégrer les données issues des environnements utilisateurs et industriels - Concevoir des rapports et indicateurs pour les métiers (sécurité, opérations, management…) - Participer à la création de dashboards et éventuelles alertes, selon les demandes des pôles métiers - Assurer la maintenance et l’évolution des rapports existants - Migrer les flux de traitement Python - DLT (ETL Databricks) - Contribuer, à moyen terme, à la mise en œuvre de cas d’usage machine learning (notions en data science appréciées)
Job Vacancy
Ingénieur Databricks (F/H)
Published on
Databricks
Microsoft Power BI
40k-45k €
Grenoble, Auvergne-Rhône-Alpes
Hybrid
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Grenoble - 🛠 Expérience de 2 ans minimum Vous souhaitez rejoindre un projet data stratégique dans un environnement Azure ? 🚀 Cette mission est sans doute faite pour vous ! Nous recherchons un.e Data Ingénieur Databricks pour intégrer une équipe en charge de l’alimentation et de l’optimisation d’une plateforme Databricks dédiée au traitement de données sensibles liées à la sécurité💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Alimenter et maintenir une base de données Databricks dans un environnement Azure - Collaborer avec les différentes équipes internes dédiées aux sujets cybersécurité - Intégrer les données issues des environnements utilisateurs et industriels - Concevoir des rapports et indicateurs pour les métiers (sécurité, opérations, management…) - Participer à la création de dashboards et éventuelles alertes, selon les demandes des pôles métiers - Assurer la maintenance et l’évolution des rapports existants - Migrer les flux de traitement Python - DLT (ETL Databricks) - Contribuer, à moyen terme, à la mise en œuvre de cas d’usage machine learning (notions en data science appréciées)
Job Vacancy
Consultant Data Databricks (F/H)
Published on
Apache Spark
Databricks
DevOps
3 years
60k-75k €
550-610 €
Paris, France
Hybrid
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Job Vacancy
Data Engineer (Databricks and AWS)
Published on
Leeds, England, United Kingdom
At CGI, we’re helping to transform the future of healthcare through the power of data. As a Senior Data Engineer, you’ll play a pivotal role in designing, building, and optimising data platforms that underpin critical national services. Working at the heart of our Healthcare team, you’ll use your expertise in AWS, Databricks, and Python to deliver high-impact solutions that improve outcomes, enhance decision-making, and drive innovation across the sector. You’ll collaborate with experts who share your passion for problem-solving, ownership, and technical excellence—empowered to shape the data foundations of tomorrow. CGI was recognised in the Sunday Times Best Places to Work List 2025 and has been named a UK ‘Best Employer’ by the Financial Times. We offer a competitive salary, excellent pension, private healthcare, plus a share scheme (3.5% + 3.5% matching) which makes you a CGI Partner not just an employee. We are committed to inclusivity, building a genuinely diverse community of tech talent and inspiring everyone to pursue careers in our sector, including our Armed Forces, and are proud to hold a Gold Award in recognition of our support of the Armed Forces Corporate Covenant. Join us and you’ll be part of an open, friendly community of experts. We’ll train and support you in taking your career wherever you want it to go. Due to the secure nature of the programme, you will need to hold UK Security Clearance or be eligible to go through this clearance. This is a hybrid position based in Leeds.
Contractor job
Consultant Tech Lead Databricks Clermond Ferrand
Published on
Databricks
6 months
Clermont-Ferrand, Auvergne-Rhône-Alpes
Hybrid
Nous recherchons un Consultant / Tech Lead Data expérimenté pour rejoindre notre équipe basée à Clermont-Ferrand . Vous interviendrez en tant que référent technique sur nos projets Data, en particulier autour de l’écosystème Databricks et de la plateforme Microsoft Azure . Piloter techniquement les projets Data et accompagner les équipes dans la montée en compétences. Concevoir, développer et optimiser des pipelines de données sous Databricks . Mettre en œuvre des architectures Data sur Azure (Data Lake, Data Factory, Synapse…). Développer, transformer et industrialiser les traitements Spark .
Job Vacancy
Data Engineer (Databricks and AWS)
Published on
Widecombe-in-the-Moor, England, United Kingdom
At CGI, we’re helping to transform the future of healthcare through the power of data. As a Data Engineer, you’ll play a pivotal role in designing, building, and optimising data platforms that underpin critical national services. Working at the heart of our Healthcare team, you’ll use your expertise in AWS, Databricks, and Python to deliver high-impact solutions that improve outcomes, enhance decision-making, and drive innovation across the sector. You’ll collaborate with experts who share your passion for problem-solving, ownership, and technical excellence-empowered to shape the data foundations of tomorrow. CGI was recognised in the Sunday Times Best Places to Work List 2025 and has been named a UK ‘Best Employer’ by the Financial Times. We offer a competitive salary, excellent pension, private healthcare, plus a share scheme (3.5% + 3.5% matching) which makes you a CGI Partner not just an employee. We are committed to inclusivity, building a genuinely diverse community of tech talent and inspiring everyone to pursue careers in our sector, including our Armed Forces, and are proud to hold a Gold Award in recognition of our support of the Armed Forces Corporate Covenant. Join us and you’ll be part of an open, friendly community of experts. We’ll train and support you in taking your career wherever you want it to go. Due to the secure nature of the programme, you will need to hold UK Security Clearance or be eligible to go through this clearance. This is a hybrid position based in Leeds.
Contractor job
Lead Data Engineer Azure Databricks
Published on
Apache NiFi
Databricks
PySpark
3 years
600 €
Ile-de-France, France
Hybrid
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Job Vacancy
Data Engineer Databricks - Paris
Published on
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Job Vacancy
Growth Director, Strategic Alliances – Databricks
Published on
Widecombe-in-the-Moor, England, United Kingdom
At CGI, we’re shaping the future of digital transformation through powerful partnerships that spark innovation and accelerate business growth. As our Growth Director of Strategic Alliances – Databricks, you’ll play a key role in strengthening CGI’s collaboration with Databricks - driving joint success, creating go-to-market opportunities, and enabling data-driven solutions that deliver measurable results. This is a high-impact leadership role where your insight, creativity, and ownership will help shape how CGI and Databricks redefine value for clients across industries. CGI was recognised in the Sunday Times Best Places to Work List 2025 and has been named a UK ‘Best Employer’ by the Financial Times. We offer a competitive salary, excellent pension, private healthcare, plus a share scheme (3.5% + 3.5% matching) - making you a CGI Partner, not just an employee. We’re committed to inclusivity, building a truly diverse community of tech talent and inspiring everyone to pursue careers in our sector, including the Armed Forces. We proudly hold a Gold Award for our support of the Armed Forces Corporate Covenant. Join us and you’ll be part of an open, supportive community of experts - with training and opportunities to take your career wherever you want it to go. Due to the secure nature of the programme, you’ll need to hold UK Security Clearance or be eligible to obtain it.
Contractor job
Tech Lead Data Engineering / Databricks – Mission longue
Published on
Management
12 months
400-660 €
Ile-de-France, France
Hybrid
Nous recherchons pour l’un de nos clients grands comptes un Tech Lead spécialisé Data Engineering afin de rejoindre une squad produit au sein d’un environnement moderne et exigeant. 🎯 Objectif de la mission Contribuer au delivery des produits data, piloter les choix techniques, encadrer les bonnes pratiques, et garantir la qualité logicielle au sein d’une équipe pluridisciplinaire (Data Engineers, Data Scientists, Software Engineers…). 🎤 Soft skills Leadership technique + accompagnement d’équipe Communication structurée et vulgarisation technique Rigueur, autonomie et sens du delivery Capacité à interagir avec de multiples parties prenantes
Contractor job
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Published on
Azure
Cloud
Databricks
1 year
Ile-de-France, France
Hybrid
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Contractor job
LLMOPS (infra)
Published on
Azure
Databricks
DevOps
12 months
400-550 €
Paris, France
Hybrid
Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste. Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM. Architecture & Stratégie LLMOps Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM. Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant. Déploiement & Exploitation des modèles Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés. Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence). Mettre en place des pipelines de mise à jour, de versioning et de rollback. Observabilité & Performance Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence). Garantir des performances stables et optimiser en continu l’inférence et les workflows associés. Sécurité, conformité & gouvernance Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints. Veiller à la conformité (RGPD, confidentialité, accès, auditabilité). Définir les règles de gouvernance modèle/données pour un usage maîtrisé. Support & Acculturation interne Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines). Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations). Accompagner les projets métiers exploitant l’IA générative. Compétences techniques Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité. Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence. Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises. Connaissances avancées en sécurité cloud & data, gestion des accès, compliance. À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Job Vacancy
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Published on
Azure
Databricks
Dataiku
3 years
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
84 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k