Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 155 résultats.
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
CDI
Freelance

Offre d'emploi
MLOps/LLMOps - Lille (Hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
CI/CD
Docker
FastAPI

1 an
40k-55k €
400-500 €
Lille, Hauts-de-France
🧠 Intitulé du poste Machine Learning Engineer – MLOps / IA / GCP 🎯 Mission principale Assurer l’ industrialisation, le déploiement et l’exploitation en production de solutions de Machine Learning , dans un environnement cloud (Google Cloud Platform), en intégrant des pratiques avancées de MLOps, CI/CD et data engineering . 🚀 Responsabilités clés Déployer et maintenir des applications ML en production Concevoir et orchestrer des pipelines de données Automatiser les déploiements ML Développer des solutions de monitoring et observabilité des modèles Participer à l’ intégration des modèles ML dans les produits digitaux Collaborer avec les data scientist pour transformer les cas d’usage en solutions industrialisées, scalables et robustes Contribuer à la stratégie ML et à la roadmap technique Promouvoir les bonnes pratiques MLOps et software engineering Participer au coaching et mentoring des équipes 🛠️ Compétences techniques requises (impératives) ☁️ GCP 🐍 Python +++ 🤖 Machine Learning / IA ⚙️ MLOps/LLM
Offre premium
Freelance

Mission freelance
Data Scientist – Prévision & Optimisation H/F

AXONE BY SYNAPSE
Publiée le
Electronic Design Automation (EDA)
MLOps
Monitoring

6 mois
Roissy-en-France, Île-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée Data Scientist – Prévision & Optimisation H/F . Le consultant interviendra en tant que contributeur individuel senior pour concevoir et développer des modèles avancés de prévision et d’optimisation. Le rôle couvre des problématiques complexes liées à la prévision de la demande, à l’optimisation des ressources et à la simulation opérationnelle. Le consultant travaillera en étroite collaboration avec des data engineers et équipes IA afin de transformer des problématiques métiers en solutions analytiques robustes, scalables et orientées décision. Le consultant interviendra principalement sur l’amélioration de modèles existants de machine learning et sur la couche d’optimisation associée, avec un fort enjeu autour de l’allocation optimale des ressources opérationnelles (planning, workforce, capacité). Le rôle requiert un profil très opérationnel (hands-on), capable de manipuler du code Python avancé, d’intervenir sur des modèles ML existants et surtout de développer et améliorer des modèles d’optimisation (notamment via Gurobi). Le consultant travaillera en étroite collaboration avec les équipes internes et le partenaire externe, avec un objectif clair d’appropriation et d’internalisation des compétences à horizon 12 mois. Objectif et livrable: Développement de modèles de prévision avancés (séries temporelles, probabilistes, hiérarchiques) Conception et implémentation de modèles d’optimisation (MIP, LP, heuristiques) Développement de frameworks de simulation pour la prise de décision opérationnelle Résolution de problématiques métiers complexes et ambiguës via des approches data science Construction de modèles de machine learning prêts pour la production Collaboration avec les équipes engineering pour le déploiement et le monitoring Garantie de la robustesse, explicabilité et performance des modèles Traduction des besoins métiers en solutions analytiques concrètes Collaboration avec équipes opérationnelles et produit pour délivrer des résultats mesurables Communication des insights aux parties prenantes techniques et non techniques Compétences attendues: Expertise en séries temporelles (forecasting avancé, probabiliste, hiérarchique) Maîtrise des techniques d’optimisation (MIP, LP, heuristiques) Solides compétences en Python (NumPy, Pandas, PyTorch, OR-Tools, SimPy, Gurobi) Expérience en modélisation statistique et analyse exploratoire de données (EDA) Déploiement de modèles en production (MLOps, monitoring) Maîtrise SQL et manipulation de données volumineuses Expérience: 6+ ans en Data Science / IA appliquée Télétravail (modalité, fréquence, contraintes): Hybride, 2 à 3 jours/semaine à distance selon localisation et contraintes projet
Offre premium
CDI
Freelance

Offre d'emploi
HPC Operations

Halian
Publiée le
Calcul hautes performances (HPC)
CPU
GPU

4 ans
France
FULL REMOTE Principal Engineer – HPC Operations Description du poste Nous recherchons un(e) Principal Engineer – HPC Operations expérimenté(e) pour piloter l’exploitation quotidienne d’infrastructures de calcul haute performance (HPC) dédiées à des workloads à grande échelle en IA et Machine Learning . Ce rôle clé consiste à garantir la stabilité, la performance, la sécurité et l’évolutivité des clusters HPC, en s’appuyant sur des technologies telles que Slurm, Kubernetes et des plateformes MLOps modernes . Vous interviendrez dans des environnements complexes et distribués à l’échelle internationale, tout en jouant un rôle de référent technique et de mentor pour les équipes opérationnelles. Responsabilités principales Assurer la gestion opérationnelle quotidienne des infrastructures HPC (compute, stockage, réseau, ordonnanceurs comme Slurm et Kubernetes). Optimiser la performance, la disponibilité et l’utilisation des ressources (CPU, GPU, stockage). Être le point de contact technique principal pour les déploiements HPC dans le périmètre. Agir comme point d’escalade technique (L3) pour les équipes support, en assurant une résolution rapide et efficace des incidents. Superviser l’état des systèmes via des outils de monitoring et d’observabilité (Prometheus, Grafana, DCGM). Gérer les environnements utilisateurs pour les workloads IA/ML via des containers et orchestrateurs (Docker, Kubernetes) et des outils MLOps (MLflow, Kubeflow). Définir et appliquer les politiques de planification des jobs (priorités, quotas, partitions) afin de garantir l’équité et l’efficacité des ressources. Piloter les analyses de causes racines (RCA) , contribuer aux post-mortems et mener des actions d’amélioration continue. Encadrer et accompagner les ingénieurs moins expérimentés , favoriser le partage de connaissances et la montée en compétences. Participer à l’ astreinte si nécessaire. Veiller au respect des politiques de sécurité, des processus opérationnels et des exigences d’audit , et maintenir la documentation associée. Profil recherché Formation & expérience Bac+5 en informatique, ingénierie ou domaine technique équivalent. Minimum 8 ans d’expérience en HPC, ingénierie systèmes ou DevOps, dont au moins 2 ans dans un rôle senior ou de leadership technique . Compétences techniques Expertise avancée en environnements HPC complexes (matériel, logiciels, stockage). Expérience confirmée avec Slurm et/ou Kubernetes appliqués à des workloads IA/ML. Solide maîtrise de la gestion des GPU , des ordonnanceurs de charges et de l’optimisation des performances. Bonne connaissance des outils de monitoring (Prometheus, Grafana, DCGM). Excellentes compétences en automatisation et scripting : Python, Bash, Ansible, Terraform. Très bonne maîtrise de Linux (RHEL, CentOS, Ubuntu). Connaissances approfondies en réseaux haute performance (RDMA, InfiniBand, RoCE). Expérience avec des solutions de stockage telles que NFS, Lustre, Ceph.
CDI
Freelance

Offre d'emploi
Ingénieur de Supervision –ElasticSearch

Genwaves Group
Publiée le
Elasticsearch
Supervision

24 mois
45k-50k €
250-500 €
Paris, France
🎯 Votre rôle : En appui direct à un ingénieur production IT, vous interviendrez sur des projets stratégiques de traitement et de valorisation de la donnée. Vous contribuez à la mise en place de solutions de visualisation, de supervision et de machine learning pour assurer une exploitation intelligente des données. 🔧 Vos missions principales : Créer et maintenir des tableaux de bord dynamiques (Kibana, Power BI, Grafana) Gérer des flux de données (pipelines, supervision bout-en-bout) Manipuler des outils comme ElasticSearch, Logstash et ETL Participer à la mise en œuvre de solutions de machine learning appliquées à l'exploitation de données Suivre les performances applicatives (APM), visualiser les métriques, anticiper les anomalies Alimenter et enrichir les systèmes de monitoring et de supervision
CDI
Freelance

Offre d'emploi
Ingénieur de Supervision –ElasticSearch

Genwaves Group
Publiée le
Elasticsearch
Supervision

24 mois
45k-50k €
250-500 €
Toulon, Provence-Alpes-Côte d'Azur
🎯 Votre rôle : En appui direct à un ingénieur production IT, vous interviendrez sur des projets stratégiques de traitement et de valorisation de la donnée. Vous contribuez à la mise en place de solutions de visualisation, de supervision et de machine learning pour assurer une exploitation intelligente des données. 🔧 Vos missions principales : Créer et maintenir des tableaux de bord dynamiques (Kibana, Power BI, Grafana) Gérer des flux de données (pipelines, supervision bout-en-bout) Manipuler des outils comme ElasticSearch, Logstash et ETL Participer à la mise en œuvre de solutions de machine learning appliquées à l'exploitation de données Suivre les performances applicatives (APM), visualiser les métriques, anticiper les anomalies Alimenter et enrichir les systèmes de monitoring et de supervision
Freelance

Mission freelance
Expert Dataiku DSS - Bordeaux

Signe +
Publiée le
Agent IA
AWS Cloud
Azure

3 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industrialisation (build & run). OBJECTIFS DE LA MISSION · Industrialiser les projets de Machine Learning développés sous Dataiku DSS · Mettre en place une chaîne MLOps robuste, sécurisée et maintenable · Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku · Assurer le bon passage du POC à la production, puis l’exploitation dans le temps · Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data PERIMETRE D’INTERVENTION • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD LIVRABLES ATTENDUS · Pipelines MLOps Dataiku industrialisés et documentés · Modèles ML déployés et supervisés en production · Connecteurs Dataiku vers les sources de données opérationnels · Documentation d’exploitation MLOps & DataOps · Recommandations de standardisation et d’amélioration continue INTERACTIONS · Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet · Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation COMPETENCES · Dataiku DSS – niveau avancé (MLOps & DataOps) · Expérience confirmée en industrialisation de modèles ML · Python, SQL · CI/CD, Git · Très bonne compréhension des architectures Data · Environnements Cloud (AWS / GCP / Azure) · Sensibilité forte aux enjeux sécurité, RUN et exploitation
Freelance

Mission freelance
Data Platform Engineer (H/F)

PREREQUIS
Publiée le
AWS Cloud
CI/CD
DBT

3 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un de nos clients un Data Platform Engineer sous la responsabilité d’un Teachlead, vous êtes responsable de la conception, de la mise à disposition et de l’évolution des services de plateforme Data & AI. Missions : AWS & Cloud Platform Engineering (enjeu clé) • Concevoir et opérer des architectures cloud-native et serverless sur AWS • Être garant des standards AWS : sécurité, réseau, identité, observabilité, résilience • Définir des patterns d’architecture réutilisables pour les usages data et ML • Automatiser la mise à disposition des ressources via Infrastructure as Code avec du Terraform Data Platform & Snowflake • Travailler au cœur d’une plateforme centrée sur Snowflake • Être capable de monter rapidement en expertise Snowflake (architecture, sécurité, performance, coûts) • Collaborer étroitement avec les équipes Data Engineering pour supporter les usages dbt / Airflow • Contribuer à l’industrialisation des workloads analytics, ML et GenAI Construction d’offres & services de plateforme • Concevoir et formaliser des offres de services Data Platform autour de l’ingestion de données et de déploiement de job de transformation, model ML, … • Définir le cadre d’usage : standards, responsabilités, SLA, bonnes pratiques • Structurer une approche “productisée” de la plateforme DevOps, CI/CD & Automatisation • Concevoir et maintenir des pipelines CI/CD GitLab • Automatiser les déploiements, configurations et contrôles • Promouvoir les pratiques DevOps / DataOps auprès des équipes consommatrices • Contribuer à la fiabilité opérationnelle (monitoring, alerting, runbooks) Enablement, pédagogie & évangélisation • Accompagner les Data Engineers, Data Scientists et ML Engineers dans l’adoption de la plateforme • Jouer un rôle de référent technique et pédagogue • Produire de la documentation claire et actionnable • Animer des sessions de partage, d’architecture et de bonnes pratiques • Évangéliser les standards cloud, data et sécurité FinOps & performance • Intégrer les enjeux FinOps dans la conception des services • Optimiser l’usage des ressources AWS et Snowflake • Aider les équipes à consommer la plateforme de manière responsable et efficace
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
CDI
Freelance

Offre d'emploi
Ingénieur IA LLM/MLOps/LangGraph

OBJECTWARE
Publiée le
LangChain
LangGraph
Large Language Model (LLM)

3 ans
43k-93k €
400-710 €
Île-de-France, France
Les missions sont: 1- Conception et développement d’agents autonomes avec LangGraph : - Architecture des agents conversationnels ou décisionnels (ex: agents multi-outils, boucles de rétroaction, mémoire contextuelle). -Intégrtion des modèles de langage (LLMs) via LangGraph pour des tâches complexes (ex: raisonnement multi-étapes, orchestration de workflows). -Optimisation les stratégies de prompt engineering et les mécanismes de contrôle (ex: function calling, tool use, plan-and-execute). 2- Intégration avec des pipelines ML/MLOps existants : -Connection des agents LangGraph à des modèles custom (ex: fine-tuned LLMs, modèles de séries temporelles) via APIs ou pipelines. -Automatisation de versioning des agents et leur déploiement. 3- Ingénierie des données et features pour les agents : -Construction des pipelines de données pour alimenter les agents -Développement des mécanismes de mémoire (ex: bases de connaissances dynamiques). -Optimisation les coûts et la scalabilité (ex: caching des réponses, model distillation pour les edge cases). 4- Tests et robustesse : -Mise en place des tests automatisés pour les agents (ex: simulations de dialogues, injection de fautes). -Surveillance les dérives comportementales (ex: hallucinations, boucles infinies) avec LangSmith. -Documentation des limites et cas d’usage (ex: matrice de risques pour les décisions critiques). Compétences souhaitées: Expérience avancée avec LangGraph : -Maîtrise des composants clés : StateGraph, prebuilt tools, human-in-the-loop, et intégration avec des LLMs. -Expérience en déploiement d’agents en production. Python et écosystème IA : -Bibliothèques : langgraph, langchain, llama-index, pydantic. -Frameworks ML : PyTorch/TensorFlow (pour customiser des modèles si besoin).
Freelance
CDI

Offre d'emploi
Senior Data Engineer

Craftman data
Publiée le
Agent IA
Apache Kafka
Azure Data Factory

12 mois
Paris, France
🧠 Contexte de la mission La squad Data Connect développe des produits data augmentés par l’IA pour : accélérer la livraison des projets data faciliter l’accès à la donnée legacy alimenter différents consommateurs (Power BI, data hubs, produits digitaux, Cognite, etc.) garantir une donnée fiable, gouvernée et monitorée 🚀 Objectif principal du Senior Data Engineer Construire, industrialiser et optimiser des pipelines de données robustes et scalables , en environnement cloud (principalement Azure + Databricks), avec un fort enjeu : 👉 ingestion, transformation, qualité, exposition et monitoring de la donnée 🔧 Missions clés 1. Architecture & conception data Analyser les besoins métiers et techniques Proposer des solutions data robustes et industrialisables Travailler avec architectes, data scientists et domain managers 2. Data Engineering / Industrialisation Automatiser les pipelines de données sur : Databricks Azure Data Factory (ADF) Cognite Data Fusion Gérer ingestion, stockage, transformation et exposition Mettre en production des flux data fiables et scalables 3. Data Quality & Monitoring Développer des outils de Data Monitoring / Data Connect Assurer : complétude qualité épuration enrichissement des données Mettre en place des mécanismes d’observabilité 4. Amélioration continue & produit Participer aux workshops produit Améliorer les outils internes (monitoring, exposition, data lineage) Standardiser les pipelines et scripts Renforcer la documentation et la traçabilité 🧰 Stack technique attendue Expert : SQL, Python, Kafka Confirmé : Spark, Databricks, Docker, REST APIs, Cognite Data Fusion Avancé : Azure Machine Learning, LLM IA Agentic : niveau confirmé 🎯 Profil recherché Un profil : très solide en data engineering (industrialisation + production) orienté streaming & ingestion (Kafka fort enjeu) à l’aise avec les environnements cloud Azure + Databricks capable de gérer des sujets data quality / observabilité avec une ouverture IA (LLM, agentic AI, ML pipelines) autonome et orienté produit Senior Data Engineer spécialisé dans la conception et l’industrialisation de pipelines data en environnement cloud Azure et Databricks. Expert en ingestion et streaming (Kafka), il/elle construit des architectures robustes orientées production, avec une forte culture de la data quality, du monitoring et de l’observabilité. À l’aise dans des contextes complexes mêlant legacy data, produits data et IA (LLM / ML), il/elle contribue également à la standardisation et à l’amélioration continue des plateformes data.
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
Algorithmique
Keras
Large Language Model (LLM)

3 ans
350-400 €
Île-de-France, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

155 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous