Find your next tech and IT Job or contract Databricks

Contractor job
Développeur Confirmé ODI 12 & MDM
Client : secteur transport Site : Nantes, 1 à 2 jours par semaine sur site Prix achat max : 550 € Date de démarrage : 15/09/2025 Durée mission : 3 mois (31/12/2026) Profil : Développeur Confirmé ODI 12 & MDM Contexte : Analyste développeur multi-projets, Maintien en Condition Opérationnelle (MCO) & Build : Cycle en V au forfait avec des UO, Equipe environ 8 personnes (dans un bundle global : 60 personnes) Tâches : Développements & administration/ Certificat SSL, Appréhender les besoins client et les analyser/chiffrer avec les UO, Définir une stratégie de test/validation pour chaque besoin, Rédiger les Spécifications Fonctionnelles et Techniques Détaillées, Coder et développer les demandes, Valider unitairement et en intégration (incluant non-régression), Packager / livraison / déploiement MCO/RUN Suivi des tickets et respect des processus ITIL (MAJ ticket, respect SLA, ...) , DSTUM avec revue des avancements et du Reste à Faire réactualisé, Analyse des tickets, analyse d'impact et proposition de solution pour mise en œuvre, Réalisation des correctifs Global Appliquer les méthodes et bonnes pratiques du centre de service, Appliquer les bonnes pratiques de développement et participer aux revues de code, Rester à l'état de l'art sur les aspects sécurité et RSSI, Rédiger les documentations de livraisons,

Contractor job
Expert Power BI
Nous recherchons un expert Power BI (plus de 9 ans d’expérience) pour renforcer la maîtrise et l’usage de Power BI au sein de l’organisation. Le consultant interviendra dans le suivi de la performance des capacités Power BI, le développement de rapports complexes et l’accompagnement des équipes BI, IT et métiers. Il participera activement aux activités techniques et d’automatisation, tout en contribuant à l’amélioration du monitoring, de l’alerting et du suivi des usages. Une expérience significative dans l’administration des capacités Power BI Premium et l’optimisation des ressources est indispensable. Missions principales Tâches opérationnelles : Surveiller la performance des rapports et espaces de travail Power BI. Suivre la consommation des capacités Premium Power BI. Mettre en place ou améliorer les outils de suivi et d’alerting (API REST, PowerShell, monitoring). Répondre aux demandes de support et résoudre les problématiques techniques liées à Power BI. Optimiser les rapports (requêtes Power Query, modèles de données, formules DAX, visuels). Administrer et gérer les capacités Premium Power BI. Tâches techniques et d’automatisation : Développer des rapports complexes Power BI (Databricks, SharePoint, Power BI, etc.). Définir et mettre en œuvre des KPI de suivi et monitoring (usage, adoption, performance, actualisation, sécurité, gouvernance). Contribuer aux bonnes pratiques Power BI (gouvernance, documentation, versioning). Participer aux projets d’amélioration de l’offre Power BI au sein du pôle BI. Accompagner la migration vers Microsoft Fabric (tests techniques, documentation, support aux équipes). Compétences attendues Expert technique Power BI (> 9 ans). Très bonne maîtrise : Power BI Premium, DAX, Power Query, optimisation des modèles de données. Automatisation via API REST et PowerShell. Expérience sur Databricks, SharePoint et Fabric appréciée. Capacité à travailler en collaboration avec les équipes BI, IT et métiers.

Contractor job
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Job Vacancy
Expert Power BI / Monitoring, Automatisation & Gouvernance
Description et livrables de la prestation Le consultant interviendra pour renforcer la maîtrise de l’usage de Power BI au sein de l’organisation et accompagner l’équipe dans les tâches opérationnelles liées au suivi de la performance des capacités Power BI et au développement de rapports complexes. Il participera activement aux activités techniques et d’automatisation, tout en contribuant à l’amélioration du monitoring, de l’alerting et du suivi des usages, en collaboration avec les équipes BI, IT et métiers. Missions principales Contribution aux tâches opérationnelles de l’équipe Surveiller la performance des rapports et des espaces de travail Power BI. Suivre la consommation des capacités Premium Power BI. Mettre en place ou améliorer les outils de suivi et d’alerting (via API REST, scripts PowerShell, outils de monitoring). Répondre aux demandes de support et accompagner l’équipe dans la résolution de problématiques techniques liées à Power BI. Définir et appliquer des stratégies d’optimisation des rapports : requêtes Power Query, modèles de données, formules DAX, visuels. Administrer et gérer les capacités Premium Power BI. Contribution aux tâches techniques et d’automatisation Développer des rapports complexes Power BI à partir de diverses sources de données (Databricks, SharePoint, Power BI, etc.). Proposer et mettre en œuvre des KPI de suivi et de monitoring : KPI d’usage des rapports / d’adoption et de collaboration /de performance /d’actualisation et de maintenance / de sécurité et gouvernance Participer à la définition et au suivi des bonnes pratiques Power BI : gouvernance, documentation, versioning. Contribuer aux projets d’amélioration de l’offre Power BI au sein du pôle BI. Participer à la migration vers Microsoft Fabric : réalisation de tests techniques, documentation, accompagnement des équipes.

Job Vacancy
Mission Freelance / portage - Ingénieur Cloud Azure / DevOps – Data - Hauts-de-Seine, France
Bonjour, Pour l’un de mes clients, je recherche un(e) : Description : Construire et industrialiser des infrastructures Cloud Public sur Azure, configurer les équipements CI/CD et collaborer avec les équipes Dev, sécurité et projets pour la transformation data. Compétences techniques : Big Data : Azure DataLake, EventHub, Databricks, ADF - Confirmé Cloud : Microsoft Azure - Confirmé Infrastructure as Code : ARM, YAML - Confirmé Intégration/déploiement continu : Git, Azure DevOps - Confirmé Langues : Français courant Missions principales : Construire et industrialiser les infrastructures Cloud Azure Mettre en place CI/CD et outils de surveillance pour haute disponibilité Participer aux validations techniques des mises en production Collaborer avec Dev, sécurité et projets Profil requis : Bac+3/5 en informatique Expérience 5-10 ans en contexte Data Connaissances : Cloud Azure, IaC (ARM/YAML), CI/CD (Git, Azure DevOps), Big Data (DataLake, EventHub, Databricks, ADF, Power BI), Web (FunctionApp, WebApp), Micro-services/containers (AKS), Bases SQL DB/CosmosDB Plus : Spark, Scala Mots-clés : Azure, Cloud, DevOps, Data, CI/CD, ARM, YAML, Git, Azure DevOps, DataLake, EventHub, Databricks, ADF, Power BI Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.

Job Vacancy
INGENIEUR CLOUD - Confirmé (4-10 ans)
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data. En tant qu'Ingénieur devOps H/F, votre mission principale sera de participer au déploiement des projets data du Groupe. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent(e) et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions: -Construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. -Participer aux phases de validation technique lors des mises en production ou des évolutions. -Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD Les livrables sont: Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation

Job Vacancy
TECH LEAD DATA ENGINEER
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.

Contractor job
Product Owner IA - ML
Nous recherchons un Product Owner à forte sensibilité technique pour piloter : Le développement d’applications de gouvernance des modèles de Machine Learning La plateforme interne de mise à disposition de fonctionnalités d’IA générative (LLM Hub) Votre rôle sera clé pour orienter le produit, suivre sa construction, garantir la cohérence technique et maximiser la valeur pour les utilisateurs internes. Périmètre fonctionnel 1. Applications de gouvernance AI/ML Objectif : inventorier et suivre les modèles IA déployés sur différentes plateformes (Azure Machine Learning, Azure Databricks, AWS Databricks, AWS Sagemaker). Fonctionnalités principales : Récupération automatique des modèles et de leurs métriques Exposition des données via API Dashboard React dédié au suivi des modèles (mises à jour, performance, usage…) Application complémentaire de collecte des métriques d’inférence 2. Plateforme LLM Hub Objectif : centraliser l’accès et la consommation de LLMs (OpenAI, Mistral, Claude, via Azure OpenAI / AI Foundry et AWS Bedrock). Fonctionnalités actuelles : Mutualisation, supervision et optimisation de la consommation LLM (finops, reporting, provisioned throughput) Mise à disposition de briques IA clé en main (RAG, Text-to-SQL, WebSearch…) Application interne type ChatGPT Projections : Plateforme de création d’agents Élargissement des outils et plugins Nouvelles features dans le ChatGPT interne

Job Vacancy
TECH LEAD DATA ENGINEER
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.
Contractor job
Architecte Admin Cloud
Contexte : Notre client a fait le choix stratégique de migrer l’ensemble de son écosystème vers Microsoft Azure. L’objectif est aujourd’hui de structurer et industrialiser l’infrastructure cloud, tout en renforçant la gouvernance FinOps et les bonnes pratiques de sécurité et de data management. Le poste se situe à l’intersection entre Cloud / Infrastructure (70%) et Data (30%). Missions principales : Administration et optimisation de l’environnement Azure Gestion des infrastructures cloud et des réseaux Supervision des clusters Kubernetes (6 clusters) Mise en œuvre de bonnes pratiques de sécurité et de gestion des accès Gestion et monitoring des API, debug et analyse d’incidents niveau 3 Industrialisation & automatisation Mise en place et industrialisation de l’Infrastructure as Code Cadrage global de l’environnement Azure Déploiement d’une démarche FinOps (actuellement peu structurée) Data & monitoring Optimisation du système de régulation des bus (en partenariat avec INEO) Gestion et reroutage des flux de données en temps réel Suivi et amélioration des KPI de performance Utilisation d’ADF et Databricks sur la plateforme Data Administration des droits et supervision des environnements BI / databases Stack technique : Azure – Kubernetes – Terraform / Bicep – Databricks – Azure Data Factory – Power BI – React / Angular – CI/CD – API Management
Contractor job
Data Engineer confirmé
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Contractor job
Expert LLM - Consultant Learning
Nous recherchons pour le compte d'un client dans le secteur des Assurances un Expert LLM / Gen AI - Consultant Learning. Le client propose un parcours d'apprentissage en ingénierie ML/LLM à l'échelle mondiale et recherche une personne pour aider à sa mise en œuvre. Missions : Améliorer le référentiel existant de formation MLOps/ML Engineering Évoluer vers un pipeline ML sur AWS et Databricks Animer les ateliers que nous proposons aux entités dans le cadre de la formation Apporter une expertise sur les meilleures pratiques en matière d'ingénierie LLM Soutenir la création de contenu pour les pratiques d'ingénierie LLM Mettre en œuvre ces pratiques dans un environnement sandbox et un outil de benchmarking
Contractor job
Data Engineer
Hanson Regan is looking for a Data Engineer for a 5-month renewable position, based in Mechelen 2 days Monday & Wednesday onsite (3 days remote) Senior Data Engineer in SCALA Primary Skills MUST HAVE: Terraform DWH (SNowflake or databricks) Kubernetes GITlab Python Softskills & Language requirements: - Excellent Communication - English to work with Offshore (India Teams) To meet the needs of our clients, we only accept applications from freelancers working within their own company (no payroll/ portage companies) Please do not hesitate to contact me if you are interested in this position to discuss it in more detail.
Contractor job
Tech Lead IA
Bonjour, Pour le compte de l'un de mes clients, je suis à la recherche d'un Tech Lead IA. Dans le cadre de développement de projets au forfait mon client a besoin urgement d'un TECH LEAD IA. PRINCIPALES ACTIVITES : >Contribution à l’analyse et à la structuration de cas d’usage IA >Participation à la conception de l’architecture technique, au chiffrage et à la planification des projets IA >Participation et animation des points avec le client pour cadrer et suivre les projets. >Rédaction de la documentation technique des projets IA Technos devant être maîtrisées : Azure, Databricks Apps, Genie, MS Copilot Studio/foundry Ponctuellement : conseil technique sur les architecture AI (LLM, RAG, Genie, Databricks Apps, Azure…

Contractor job
Mission Freelance / Portage - Microsoft Fabric / Azure - Paris - Hybride
Bonjour, Pour l’un de mes clients, je recherche un Consultant Microsoft Fabric Rôle : Concevoir, intégrer et optimiser les flux de données sur la plateforme Microsoft Fabric . Structurer OneLake, Synapse, Data Factory , créer et maintenir les référentiels, améliorer la qualité des données et collaborer avec les équipes BI sur les modèles de reporting. Compétences clés : Microsoft Fabric, Azure (Synapse, Data Factory, Databricks, Event Hub, OneLake), ETL, Data Lake / Lakehouse, modèle Médaillon, SQL, Python (PySpark), Power BI, intégration inter-applicative, reporting BI. Profil recherché : Expérience confirmée sur Azure et ADF, bonne maîtrise des architectures Data Lake / Lakehouse. Personne rigoureuse, organisée, avec un bon esprit d’équipe, capable de documenter et vulgariser les traitements. Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country