Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 17 résultats.
CDI

Offre d'emploi
Machine Learning Engineer

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Docker

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Alternance

Offre d'alternance
Machine Learning Engineer - Pricing (f/m/d) - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
DevOps
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
ML Engineer senior orienté plateforme / DevOps ML

Trait d'Union
Publiée le
AWS Cloud
Deep Learning
Docker

1 an
400-760 €
Paris, France
Permettre à des chercheurs de tester, entraîner et industrialiser rapidement des modèles de machine learning à grande échelle, dans un environnement hybride : neocloud pour la recherche AWS (MLOps / prod) Gérer des entraînements de modèles à grande échelle (GPU / distribué) Assurer la reproductibilité des expériences Optimiser les ressources (GPU, compute) Créer des outils internes pour la recherche ML Faire le lien entre recherche académique ↔ production industrielle Avoir déjà travaillé : soit dans une boîte très technique (type scale-up / deeptech) soit dans un environnement de recherche / labo Parler Anglais
Freelance
CDI

Offre d'emploi
ML Engineer / MLOps (H/F)

UCASE CONSULTING
Publiée le
Docker
Kubernetes
Python

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 Je recrute un ML Engineer / MLOps expérimenté pour intervenir sur des sujets IA Générative avec un fort enjeu d’ industrialisation et de mise en production . 👉 Le rôle est clé : transformer des cas d’usage IA en solutions robustes, scalables et maintenues en production (RAG, fine-tuning, optimisation des modèles). 🔴 MUST HAVE • Solide expérience en Python /Pandas/ SQL • Expérience en mise en production de modèles IA • Compétences MLOps (déploiement, monitoring, industrialisation) • Maîtrise des architectures GenAI (RAG, fine-tuning) • Expérience sur Docker / Kubernetes • Environnement Cloud (AWS) • Maîtrise d’au moins un framework ML ( PyTorch, TensorFlow… ) 🟢 NICE TO HAVE • Expérience en Prompt Engineering • Outils type LangChain / frameworks LLM • Expérience optimisation performance (coûts, latence) • Cas d’usage GenAI en production • Environnement data / pipelines d’ingestion
CDI

Offre d'emploi
ML Engineer H/F

OBJECTWARE
Publiée le
Agent IA
CI/CD
Large Language Model (LLM)

40k-65k €
Bordeaux, Nouvelle-Aquitaine
🎯 ML Engineer – Industrialisation & Agents IA Nous accompagnons actuellement un de nos clients dans le cadre du renforcement de ses équipes Data / IA, avec un enjeu fort autour de l’industrialisation des modèles et du développement d’agents basés sur les LLM. Dans ce contexte, nous recherchons un ML Engineer , avec un niveau d’expérience ouvert (à partir de 4 ans jusqu’à expert), pour intervenir sur des sujets à forte valeur ajoutée. Missions Concevoir et développer des agents IA basés sur des LLM Participer à l’ industrialisation des modèles de Machine Learning Mettre en place et optimiser des pipelines MLOps Assurer le déploiement, le monitoring et la performance des modèles en production Collaborer avec les équipes Data, IT et métiers pour intégrer les solutions IA dans les outils existants Contribuer aux bonnes pratiques CI/CD, automatisation et GitOps 🛠️ Environnement technique IA / LLM : LangChain, LangGraph, LLM MLOps : MLflow, Kubeflow DevOps / Industrialisation : CI/CD, GitOps Data / ML : Machine Learning (profil ex Data Scientist apprécié)
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Freelance
CDI

Offre d'emploi
Data Scientist / Machine Learning Engineer – IA & Data Innovation

AVA2I
Publiée le
Data science

1 an
Île-de-France, France
Au sein d’une direction dédiée à la couverture clients et à l’investissement, vous rejoignez une équipe en charge de la performance commerciale et de l’optimisation de la relation client . L’objectif est de maximiser la valeur des portefeuilles clients en combinant : analyse stratégique allocation des ressources accompagnement opérationnel des équipes commerciales Dans ce cadre, l’équipe Data & Innovation renforce ses capacités pour mettre la Data et l’Intelligence Artificielle au service du business .
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
CDI
Freelance

Offre d'emploi
Data Engineer, Azure Databrick (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Alternance

Offre d'alternance
Data scientist - Backend E-commerce (H/F) - - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
CI/CD
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Platform Engineer (H/F)

PREREQUIS
Publiée le
AWS Cloud
CI/CD
DBT

3 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un de nos clients un Data Platform Engineer sous la responsabilité d’un Teachlead, vous êtes responsable de la conception, de la mise à disposition et de l’évolution des services de plateforme Data & AI. Missions : AWS & Cloud Platform Engineering (enjeu clé) • Concevoir et opérer des architectures cloud-native et serverless sur AWS • Être garant des standards AWS : sécurité, réseau, identité, observabilité, résilience • Définir des patterns d’architecture réutilisables pour les usages data et ML • Automatiser la mise à disposition des ressources via Infrastructure as Code avec du Terraform Data Platform & Snowflake • Travailler au cœur d’une plateforme centrée sur Snowflake • Être capable de monter rapidement en expertise Snowflake (architecture, sécurité, performance, coûts) • Collaborer étroitement avec les équipes Data Engineering pour supporter les usages dbt / Airflow • Contribuer à l’industrialisation des workloads analytics, ML et GenAI Construction d’offres & services de plateforme • Concevoir et formaliser des offres de services Data Platform autour de l’ingestion de données et de déploiement de job de transformation, model ML, … • Définir le cadre d’usage : standards, responsabilités, SLA, bonnes pratiques • Structurer une approche “productisée” de la plateforme DevOps, CI/CD & Automatisation • Concevoir et maintenir des pipelines CI/CD GitLab • Automatiser les déploiements, configurations et contrôles • Promouvoir les pratiques DevOps / DataOps auprès des équipes consommatrices • Contribuer à la fiabilité opérationnelle (monitoring, alerting, runbooks) Enablement, pédagogie & évangélisation • Accompagner les Data Engineers, Data Scientists et ML Engineers dans l’adoption de la plateforme • Jouer un rôle de référent technique et pédagogue • Produire de la documentation claire et actionnable • Animer des sessions de partage, d’architecture et de bonnes pratiques • Évangéliser les standards cloud, data et sécurité FinOps & performance • Intégrer les enjeux FinOps dans la conception des services • Optimiser l’usage des ressources AWS et Snowflake • Aider les équipes à consommer la plateforme de manière responsable et efficace
Freelance

Mission freelance
Ingénieur DevOps & Cloud

ematiss
Publiée le
Kubernetes

6 mois
400-550 €
Île-de-France, France
Profil recherché : Maîtrise avancée de Kubernetes (architecture, administration de clusters) Connaissance de la gestion des secrets (Vault) Solides compétences réseau :reverse proxy (Traefik) authentification (Keycloak, JWT, OIDC) Très bonne compréhension de GitLab et des pipelines CI/CD Connaissance de l’approche GitOps (ArgoCD) Compétences en observabilité dans un environnement Kubernetes : Prometheus, AlertManager, Grafana Connaissances appréciées en bases de données relationnelles (PostgreSQL) Maîtrise des environnements GNU/Linux Capacité à intervenir sur : l’évolution de frameworks data science (Python) la maintenance/optimisation des pipelines CI/CD l’amélioration du logging, monitoring et traçabilité la mise en production d’outils et solutions IA Force de proposition, curiosité technologique et participation active aux POCs Rigueur, autonomie, sens du partage et qualité documentaire Anglais obligatoire Missions : Dans le cadre de cette mission, vous interviendrez au sein d’une direction Data qui accompagne les métiers et les entités internationales dans leurs projets de data science, depuis la définition des use cases jusqu’à la mise en production des modèles. L’environnement est dynamique, international, avec un esprit « start-up » intégré à un grand groupe, regroupant des data scientists (computer vision, NLP, scoring), des ML engineers et une équipe dédiée aux projets IA. Vous contribuerez à la conception, l’évolution et la haute disponibilité d’une plateforme de data science complète, comprenant : un environnement d’exploration et de développement Python développé en interne, un framework d’industrialisation des modèles, une plateforme d’exécution des modèles, un outil de community management dédié. Votre rôle consistera à assurer l’administration, l’exploitation et l’automatisation des clusters, à optimiser les images Docker et à gérer l’exécution de plusieurs centaines de containers en production. Vous porterez également la vision technique de la plateforme, piloterez les choix d’architecture, assurerez une veille technologique continue et rédigerez la documentation technique. Vous participerez à la maintenance et à l’évolution des frameworks data science, des pipelines CI/CD, de l’observabilité des plateformes, ainsi qu’à la mise en production des solutions IA. Vous serez force de proposition et interviendrez sur des POCs. Stack technique : Infrastructure / DevOps : GitLab CI/CD, GitOps (ArgoCD), cloud privé Containers : Docker, Kubernetes Langages : Python, Golang, Bash Observabilité : Prometheus, Thanos, AlertManager, Grafana Sécurité : Vault Outils DevOps : Buildkit, Artifactory, Helm, Kustomize, CUE/Timoni Services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS Systèmes : GNU/Linux Prérequis : • 7 ans d’expériences • Anglais courant (contexte international) • Kubernetes, Docker, CI/CD • ML/OPS développement IA sur Python • Certifications un + • Scripting bash from scratch
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI

Offre d'emploi
Tech Lead Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
17 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous