Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks

Votre recherche renvoie 107 résultats.
Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance

Mission freelance
Lead technique Databricks / Power BI

CS Group Solutions
Publiée le
Databricks
Microsoft Power BI

10 mois
Paris, France
Nous recherchons un Lead technique Databricks / Power BI Objectif global : Développement Databricks et rapports PowerBI Contrainte du projet: Expertise, certification Databricks Le livrable est: Développements Compétences techniques: Databricks - Expert - Impératif PowerBI - Expert - Impératif Cloud AWS - Confirmé - Important Connaissances linguistiques: Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée: En cours de prise d'information "TechLead senior avec des compétences en databricks et Power BI"
Freelance

Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO

12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Freelance
CDI

Offre d'emploi
Architecte Data Azure / Databricks

xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Freelance

Mission freelance
Tech Lead Databricks ( H/F)

ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala

6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
CDI

Offre d'emploi
AI Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Azure
Databricks
Python

9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL 👤 Profil recherché Tech Lead Data / Data Engineer senior Expérience : 7 ans minimum Solide expertise sur Databricks et les architectures data modernes Expérience dans des environnements legacy type SAP BW appréciée Capacité à accompagner une transformation technique et culturelle 🤝 Soft skills Leadership naturel et capacité à fédérer Excellente communication avec des interlocuteurs techniques et métiers Esprit structurant et orienté solutions Pédagogie et accompagnement des équipes 💡 Mission à fort impact avec une dimension stratégique et un rôle clé dans la transformation data.
Freelance
CDI

Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS

Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming

1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Freelance

Mission freelance
INGÉNIEUR DATA – DATABRICKS & AWS - DEMARRAGE LUNDI

LINKWAY
Publiée le
Amazon S3
AWS Cloudwatch
AWS Glue

9 mois
450-550 €
Paris, France
MISSION GLOBALE : Rattaché à la direction Data/Analytics, vous concevez, industrialisez et opérez des pipelines à l’échelle sur Databricks intégrés à l’écosystème AWS pour accélérer les cas d’usage data du secteur de l’énergie. Vous mettez en œuvre des traitements batch et streaming avec Spark , Delta Lake et Delta Live Tables , structurez des zones Bronze/Silver/Gold et garantissez qualité, sécurité et gouvernance via Unity Catalog, IAM et Lake Formation . Vous orchestrez l’ingestion depuis S3 , bases et API/IoT, optimisez coûts et performances ( FinOps ) et mettez en place CI/CD , tests et observabilité . En étroite collaboration avec les Data Scientists/Analysts, vous industrialisez des modèles et fonctionnalités MLOps avec MLflow pour des usages tels que prévision consommation/production , optimisation réseau , maintenance prédictive IoT et reporting quasi-temps réel . Vous contribuez aux standards d’ingénierie, à la documentation, au mentoring et à la fiabilité opérationnelle de la plateforme. TÂCHES ET RESPONSABILITÉS PRINCIPALES : • Concevoir, développer et opérer des pipelines sur Databricks (batch et streaming) • Modéliser les données Delta Lake et structurer les zones Bronze/Silver/Gold • Intégrer l’écosystème AWS : S3, Glue, EMR, Lambda, Step Functions, Lake Formation • Assurer qualité, sécurité et gouvernance avec Unity Catalog et IAM • Mettre en place CI/CD, tests et observabilité : optimiser coûts et performances • Orchestrer les workflows (Databricks Workflows, Airflow, Step Functions/ADF) • Industrialiser MLOps avec MLflow en lien avec les Data Scientists • Optimiser les jobs Spark (partitionnement, Z-Ordering, AQE, caching) • Gérer environnements, secrets, artefacts et conformité sécurité • Collaborer avec métiers et data teams pour cadrer et livrer les use cases énergie LIVRABLES CLÉS : • Pipelines Databricks prêts production : traitements batch/streaming robustes et monitorés • Modèle de données Delta Lake : zones Bronze/Silver/Gold documentées et versionnées • Intégrations AWS opérationnelles : S3, Glue Catalog, EMR/Lambda, Lake Formation/IAM • Cadre CI/CD et tests : pipelines de déploiement, validations data et qualité automatisées • Observabilité et FinOps : métriques, alerting, SLO et optimisation des coûts • Chaînes d’orchestration fiables : Databricks Workflows/Airflow/Step Functions prêtes • Capacités MLOps avec MLflow : traçabilité, registry modèles et déploiements contrôlés • Documentation et standards : runbooks, guides d’architecture et bonnes pratiques
Freelance

Mission freelance
Un Architecte Cloud Data sur La Garenne Colombes

Almatek
Publiée le
AWS Cloud
Azure
Collibra

6 mois
La Garenne-Colombes, Île-de-France
ALMATEK recherche pour l'un de ses clients, un Architecte Cloud spécialisé Data Contexte client : Responsable de la conception et de l’évolution de l’architecture SI autour de la nouvelle Data Platform, incluant Databricks, Collibra et les environnements multi‑cloud Azure/AWS. Garant de la cohérence, de la sécurité et de l’intégration des solutions Data au sein du SI, tout en accompagnant les équipes métiers et IT sur les choix technologiques et l’innovation. Compétences attendues : Azure / AWS / Databricks / Collibra Localisation : La Garenne Colombes + 2 jrs de TT/semaine Date de démarrage : mi-avril Durée : mission longue
Freelance

Mission freelance
Consultant Décisionnel (H/F)

DUONEXT
Publiée le
Business Object
Databricks
Microsoft Power BI

9 mois
Île-de-France, France
Dans le cadre d’une réorganisation du pôle décisionnel au sein d’un grand groupe du secteur Retail , nous recherchons un Consultant Décisionnel (H/F) pour accompagner la refonte et le développement des solutions BI. Rattaché à la Direction des Systèmes d’Information, vous intervenez en coordination avec les équipes IT et métiers afin de délivrer des projets décisionnels multi-technologies, dans un environnement complexe et transverse. Missions principales : Run Business Intelligence (20%) Assurer la maintenance évolutive et corrective des outils BI existants Garantir la stabilité et la performance des reportings Analyser et traiter les incidents en lien avec les équipes techniques Développement BI – Power BI & Databricks (80%) Organiser et cadrer les besoins pour le développement des reportings Gérer le planning, les priorités et les dépendances projets Développer les flux d’alimentation et de transformation des données Concevoir et développer des tableaux de bord performants et orientés métiers Participer aux ateliers de recueil des besoins et proposer des solutions adaptées Qualité & Mise en production Superviser les phases de tests (unitaires, intégration, recette) Sécuriser les mises en production et accompagner le démarrage opérationnel Mettre en place des indicateurs de suivi post go-live Assurer la documentation et le transfert de compétences si nécessaire
Freelance

Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira

WorldWide People
Publiée le
Azure
Cloudera

12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
CDI

Offre d'emploi
Tech Lead Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Freelance

Mission freelance
Qualifieur Senior

Codezys
Publiée le
Business Intelligence
Databricks
PostgreSQL

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de ses activités en Business Intelligence (Décisionnel), le client recherche un profil de qualifieur sénior (avec plus de 7 ans d'expérience) pour un poste à temps plein équivalent (1 ETP) . Ce profil viendra renforcer le dispositif du service qualification sur le site de Lyon. L'objectif principal est d'intégrer une ressource compétente en requêtage SQL afin de consolider l'équipe de qualification en Décisionnel. Fort de ses compétences techniques et fonctionnelles, le prestataire devra également posséder une solide connaissance de la Business Intelligence ainsi qu'une compréhension approfondie des méthodes Agile. Objectifs et livrables Sous la supervision du responsable du Bureau d’Étude et de Qualification Décisionnel & Big Data, le profil aura notamment pour missions : Identifier les impacts d'une nouvelle application ou des applications modifiées sur l'intégration du SI-RC ; Vérifier l’interopérabilité entre les différents systèmes ; Réaliser les tests d’intégration : valider les correctifs livrés, assurer l’interopérabilité et la cohérence globale ; Organiser et préparer la phase de tests, en planifiant notamment : les critères de recevabilité des livraisons ; l’estimation et la planification des travaux ; l’organisation des équipes ; les besoins en infrastructure et environnement ; la préparation des jeux de données. Préparer les scénarios de tests et mettre en place les infrastructures nécessaires (contextes, logiciels, données) ; Coordonner et accompagner les campagnes de tests : suivi de l'exécution des sessions de test ; exécution des plans batch ; analyse des résultats ; suivi des non-conformités. Rédiger le rapport de qualification ; Participer à la coordination des phases de recettes ; Contribuer aux phases de déploiement en préproduction et en production.
CDI

Offre d'emploi
AI Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
107 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous