Trouvez votre prochaine offre d’emploi ou de mission freelance MLOps
Votre recherche renvoie 46 résultats.
Mission freelance
236191/Architecte IA
Publiée le
MLOps
3 mois
Bretagne, France
Télétravail 100%
Architecte IA Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Mission principale Concevoir et maintenir une architecture IA robuste, scalable et sécurisée exclusivement sur site. Responsabilités clés Définir l'architecture IA (clusters GPU, VLLM, pipelines MLOpS). Mettre en place l'infrastructure de développement (JupyterHub/Lab, CI/CD interne) Assurer la sécurité et la conformité (gestion des accès, supervision). Intégrer les solutions IA dans le SI existant. Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Soft skills attendus Leadership technique, vulgarisation des concepts, et gestion agile de projets. Prestation adressable en full remote + déplacement ponctuel
Offre premium
Offre d'emploi
Ingénieur·e MLOps / IA – Confirmé·e
Publiée le
Amazon SageMaker
DevOps
IA
55k-60k €
Montrouge, Île-de-France
Télétravail partiel
Aneo est une société de conseil hybride fondée en 2002, positionnée à la convergence du conseil stratégique, de l’ingénierie logicielle avancée et de l’accompagnement à la transformation. Nous intervenons sur des problématiques à haute intensité technologique : IA, MLOps/LLMOps, architectures distribuées, performance des systèmes, cloud natif, avec une expertise historique dans les environnements critiques des grandes banques (CIB et DSI associées). Le poste Nous recherchons un·e Ingénieur·e MLOps confirmé·e (avec exposition IA / IA Générative) pour rejoindre la DSI d’une grande banque française , au sein d’une équipe dédiée “Cloud Center of Excellence” (CCoE) . Cette équipe transverse accompagne l’ensemble des projets du groupe sur : l’intégration de modèles IA/ML développés par les data scientists internes, l’industrialisation, la mise à l’échelle, la sécurité et la gouvernance des solutions IA, la structuration des capacités MLOps et LLMOps dans le cloud. Votre rôle est avant tout un rôle d’intégration, d’industrialisation et d’exploitation , pas de conception de modèles. Vous interviendrez sur tout le cycle de vie des modèles à partir de leur transfert par les équipes Data , jusqu’au déploiement en production et leur maintenance opérationnelle. Vos principales missions 1. Intégration et industrialisation des modèles IA/ML Intégration dans le SI des modèles développés par les data scientists de l’entité. Packaging, versionnement, évaluation opérationnelle, optimisation runtime. Développement d’API Rest et de services Python pour exposer les modèles. Industrialisation des POCs internes : analyse de maturité, durcissement, passage en production, conformité sécurité & gouvernance. 2. MLOps / LLMOps – Plateforme & automatisation Définition et mise en œuvre d’une infrastructure MLOps / LLMOps conforme aux standards du groupe. CI/CD modèle, automatisation du cycle de vie, observabilité, supervision, gestion multi-environnements. Coordination étroite avec les équipes Cloud Center of Excellence, Infrastructure et Sécurité pour garantir performance, alignement cloud et robustesse. 3. Gestion et optimisation des embeddings & workloads IA Maintenance, recalcul, cohérence et supervision des embeddings. Suivi qualité / performance des modèles intégrés. Support aux équipes Data pour les bonnes pratiques d’industrialisation. 4. Gouvernance & documentation Participation à la mise en place de standards IA / MLOps au sein de la DSI. Documentation technique et transfert de connaissances aux équipes support Infos pratiques : Rémunération max : 55 - 60 K fixe 2 jours de télétravail Mission basée à Montrouge, notre siège à Boulogne Billancourt Démarrage Janvier 2026
Mission freelance
Machine Learning Ops
Publiée le
MLOps
RAG
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Mission freelance
Tech Lead (ML engineering)
Publiée le
MLOps
1 an
400-700 €
Paris, France
Télétravail partiel
Contexte: Vous rejoindrez une équipe dynamique dédiée au développement et à l’évolution d’une solution de prédiction d’arrivée des colis déployée à l’échelle mondiale. Au cœur d’un environnement international et exigeant, vous aurez pour mission de garantir la robustesse, la disponibilité et la performance d’un produit critique, tout en contribuant activement à son amélioration continue. Missions : Industrialisation & Run Assurer la gestion de la production au quotidien et le maintien en conditions opérationnelles de la solution. Piloter le déploiement des évolutions via des pipelines CI/CD fiables et scalables. Mettre en place et optimiser les systèmes de monitoring et d’alerting pour garantir la qualité de service. Expertise technique Intervenir en tant que référent technique sur des environnements custom complexes. Résoudre des problématiques de performance, scalabilité et optimisation sur des architectures distribuées. Polyvalence & R&D Apporter un support transversal sur d’autres produits de l’écosystème Data/ML du groupe. Participer à une démarche de veille technologique sur des sujets innovants : NLP, Deep Learning, IA générative, automatisation… Proposer de nouvelles pistes d’amélioration, d’industrialisation et d’innovation
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning
Publiée le
Apache Airflow
Docker
MLOps
3 ans
100-520 €
Lille, Hauts-de-France
Télétravail partiel
Livrable attendu Pipelines MLOps automatisés (CI/CD) pour entraînement, validation et déploiement. Infrastructure cloud (IaC) opérationnelle. Système de monitoring et alerting pour modèles ML en production. Documentation technique et bonnes pratiques MLOps. Compétences techniques (Impératives) Frameworks MLOps : ZenML, MLflow, Vertex AI ou équivalent. Python : Confirmé. Orchestration/Pipelines : Airflow, Kubeflow, Dagster ou Prefect. Conteneurisation : Docker, Kubernetes. CI/CD & IaC : Git/GitLab/GitHub, Terraform/Ansible. Data Quality/Versioning : Great Expectations, Deeque, Feast, MLflow Model Registry. Cloud : Maîtrise d’un cloud majeur (GCP fortement recommandé). Connaissances linguistiques Français : Courant (Impératif). Anglais : Professionnel (Impératif).
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
MLOPS Expérimenté
Publiée le
CI/CD
DevOps
IA
6 mois
450 €
Mérignac, Nouvelle-Aquitaine
Télétravail partiel
Mon client recherche un MLOps expérimenté pour une mission de 6 mois à Mérignac (2 jours/semaine sur site), avec un taux journalier maximum de 450 € , démarrant le 02/01/2026 et se terminant le 30/06/2026 . Le profil recherché justifie de 5 à 7 ans d’expérience en IA/ML et DevOps. Le consultant interviendra pour détecter les opportunités IA/ML , réaliser des POC , développer et industrialiser des solutions IA/ML , et intégrer les pratiques MLOps dans les projets : monitoring, CI/CD et sécurité. Il participera activement aux cycles agiles des équipes produit. Les compétences requises incluent : la conception de pipelines data & ML , programmation Python , utilisation des services IA AWS , déploiement DevOps et CI/CD, et ML via OpenSearch . La connaissance des méthodologies Agile est essentielle. L’environnement technique comprend Python, AWS (SageMaker, Textract, Comprehend), LLM, RAG, OpenSearch ML , ainsi que des outils comme Docker, Terraform, GitLab CI, Jira et Confluence . Certifications : obligatoire sous trois mois AI Practitioner Foundational , recommandations : ML Associate / Specialty . Cette mission est idéale pour un professionnel capable de conjuguer expertise technique IA/ML, DevOps et pratiques agiles , tout en contribuant à l’innovation et à l’industrialisation des projets IA chez mon client.
Offre d'emploi
Ingénieur IA/GenAI/MLOps
Publiée le
IA Générative
3 ans
40k-70k €
400-650 €
Île-de-France, France
Les principaux livrables attendus sont : - Référentiel des bonnes pratiques - Méthodes de Feature Engineering et de validation des données. - Compte-rendus des différents ateliers et réunions - Modèles et pipelines CI/CD - Livrables attendus dans le cadre de l’assurance qualité - Matrice des risques et plan de mitigation En tant qu’ingénieur(e) IA / MLOps, vos principales missions sont de : • Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. • Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. • Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. • Contribuer à la modélisation de votre portefeuille de cas d’usage. S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. o Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. o Challenger les approches proposées par les Data Scientists. • Piloter l’industrialisation et le déploiement des modèles IA o Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles o Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. o Construire et implémenter les pipelines, CI/CD, monitoring. o S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). • Garantir la qualité et la conformité o Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot o Auditer et valider les modèles / cas d’usage développés. o Garantir la qualité et la conformité des livrables avant mise en production. o Etablir la traçabilité : documentation, métadonnées, suivi des performances. o Être le point de contact technique privilégié pour les instances de validation. • Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. o Organiser la montée en compétence progressive et objectivée des juniors. • Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. • Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. Usage Interne / Internal Use Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Mission freelance
POT8813 - Un Dev Java /angular/Mlops sur Corbeil-Essonnes
Publiée le
TypeScript
6 mois
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Dev Java /angular/Mlops sur Corbeil-Essonnes Compétences techniques requises: Backend : Java 11+/17, Spring Boot, APIs REST, JPA/Hibernate, microservices, connaissances CI/CD (GitLab, Jenkins, Azure DevOps…). Frontend : Angular (idéalement v12+), TypeScript, HTML/CSS, RxJS. MLOps : Python (pour ingestion/ML), pipelines ML (MLflow, Kubeflow, Airflow ou équivalent), conteneurisation Docker/Kubernetes, gestion et versioning des modèles, notions d’IA/ML (scikit-learn, PyTorch ou TensorFlow). Données : SQL (PostgreSQL, Oracle, MySQL…), connaissances ETL / data pipelines appréciées. Environnement & outils : Git/GitLab, CI/CD, Docker/Kubernetes, Jira/Confluence, méthodologies Agile Scrum. Profil : 3 à 7 ans d’expérience en développement Java/Angular, une première expérience MLOps est un plus. Personne autonome, proactive, avec une bonne communication. Français courant.
Offre d'emploi
Machine Learning Ops Engineer H/F
Publiée le
CI/CD
Github
Gitlab
12 ans
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, Machine Learning Ops Engineer H/F. VOTRE MISSION : Notre Client recherche un ML Ops Engineer H/F afin d’assurer l’industrialisation, la mise en production et la garantie de la fiabilité à grande échelle des cas d’usage de Data Science/Machine Learning. Le ML Ops Engineer H/F sera principalement le point entre l’équipe DATA au sens large (Data Engineer, DataScientist, Ingénieur IA) et l’équipe Opérations/DevOps. L’objectif principal sera d’industrialiser les projets de Machine Learning, de l’expérimentation jusqu’au déploiement en production, en garantissant robustesse, scalabilité et reproductibilité. Ce rôle technique est intégralement orienté Delivery/Développement Logiciel. Missions principales : Industrialisation & Pipelines (CI/CD/CT) : Concevoir et industrialiser les cas d'usage : structurer techniquement le projet, implémenter les tests, ... Concevoir et maintenir les pipelines d'intégration continue (CI), de déploiement continu (CD) et d'entraînement continu (CT) pour les modèles de ML. Automatiser les flux de travail de la donnée (Data Pipelines Airflow) en collaboration avec le Data Engineer. Garantir la reproductibilité des entraînements (versioning des données, du code et des modèles). Infrastructure & Déploiement : Conteneuriser les cas d'usage et modèles (Docker), orchestrer leur déploiement (Kubernetes). Mettre en place des stratégies de "Model Serving" (API REST, gRPC, Batch processing). Monitoring & Maintenance : Mettre en place des outils de surveillance pour suivre la santé des modèles en production. Détecter et alerter sur le Data Drift (dérive des données) et le Model Drift (baisse de performance). Gérer le cycle de vie complet des modèles (re-training, mise hors service). Mise à disposition des résultats : Être capable de développer des interfaces pour mettre à disposition et valoriser les résultats VOS CONDITIONS DE TRAVAIL : Date de démarrage mission envisagée : 02/02/2026 CDI (seuls les ressortissants européens ou détenteurs d'un titre de séjour émis par la Préfecture des Alpes-Maritimes (06) sont éligibles à un emploi en Principauté) : Autres conditions contractuelles envisageables, nous contacter Télétravail : jusqu’à 2 jours / semaine
Mission freelance
Data Scientist Sénior - Mi-temps
Publiée le
CI/CD
Large Language Model (LLM)
MLOps
6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist Senior pour rejoindre une équipe Retail composée de 5 Data Scientists, afin de contribuer à l’optimisation et au développement de solutions IA dédiées à l’amélioration du ciblage clients et à la performance des produits. Missions principales Suivre techniquement le développement de solutions data & IA orientées Retail (segmentation, ciblage, scoring…). Participer à l’amélioration continue des modèles existants : recommandations produits, recherche produits, sentiment analysis, scoring, etc. Proposer des approches robustes pour optimiser la performance des modèles et la qualité des livrables. Collaborer avec les équipes métiers pour comprendre les enjeux et traduire les besoins en solutions concrètes. Réaliser la revue de code, assurer la qualité technique et contribuer aux bonnes pratiques. Compétences requises Expertise en développement, déploiement et revue de code (pratiques clean code, MLOps, CI/CD). Expérience solide en prompting et utilisation de modèles LLM. Maîtrise des environnements Cloud, particulièrement Google Cloud Platform et ses outils associés (Dataproc, BigQuery, Vertex AI). Capacité à comprendre les besoins business et à y répondre efficacement via des solutions data performantes. Autonomie, rigueur, sens du collectif, capacité à évoluer dans un environnement agile.
Offre d'emploi
Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt
Publiée le
GenAI
IA
Large Language Model (LLM)
6 mois
Guyancourt, Île-de-France
Télétravail partiel
Je recherche pour un de nos clients un Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt Responsabilités Clés • Développement Expert & Maintien: o Développer des agents intelligents capables d’agir de manière autonome en utilisant l’approche Agentic AI. Ces agents doivent pouvoir utiliser des outils externes ou interagir avec d’autres agents pour accomplir des tâches complexes. (API externes, des applications basées sur le Model Context Protocol (MCP) ou d’autres services. o Développer des applicatifs permettant la consommation des Agents et algorithmes aux utilisateurs finaux avec de la création de front spécifiques o Mettre en place des pipelines robustes pour l'alimentation des LLMs/Agents avec les solutions Azure, Snowflake et Databricks (RAG, Fine-Tuning). o Assurer un support dans la mise en production, la supervision des modèles/agents et la résolution des problèmes techniques éventuels. Compétences spécifiques (Gen AI, Agentic AI, MCP) • IA générative (Gen AI) : Très bonne compréhension des modèles génératifs (GPT, modèles de diffusion, etc.) et de leurs cas d’usage. Savoir exploiter des LLM (via API ou fine-tuning) pour des tâches de génération de texte, de code ou d’images. Compréhension des limitations/biais des modèles génératifs. • Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud. Compréhension de l’orchestration d’agents, de la gestion du contexte (par ex. partage d’état ou de mémoire entre agents via MCP), et des enjeux de performance/coût dans un système à agents multiples. • Architecture de Solution & POC: o Conception de POCs : Mener l'exploration et la conception d'Architectures de POC autour des usages de la Gen AI et des systèmes Agentiques o Prise de Responsabilités Architecturale : Porter les choix techniques clés pour une validation avec équipe centrale architecture (stack d'agents, orchestration, modèles LLM, intégration Cloud Azure) pour garantir la scalabilité, la sécurité et la performance des solutions futures. o Optimisation Cloud : Conseiller sur les meilleures pratiques d'utilisation des services Azure pour les charges de travail d'IA Générative (coût, performance, résilience). Compétences Requises - Techniques • Maîtrise Cloud Avancée (Azure) : Maîtrise de Microsoft Azure (services cognitifs,Azure AI Foundry, Azure Machine Learning, Azure Functions, etc.) pour déployer des agents et développer des applications cloud natives. Une certification Azure (ou équivalent) serait un atout. • Développement Front Web Utilisateur : Compétence en Javascript, React nécessaire pour créer des font applicatifs d’usages des outils IA créés • Qualité logicielle : Connaissance des bonnes pratiques de développement logiciel (code review, tests unitaires, gestion de version avec Git, méthodologies Agile). • Intégration de systèmes : Compétences en développement d’API REST, MCP, A2A ou de microservices pour consommer et exposer les modèles et agents IA dans des applications. • Expertise en Python et maîtrise des librairies Gen AI (Hugging Face, Transformers, OpenAI API). • Systèmes Agentiques : Maîtrise des frameworks d'agents AI (LangChain, AutoGen) et de l'implémentation du Model Context Protocol (MCP) ou A2A. • Évaluation d'Agents : Compétence dans la mise en œuvre de tests unitaires, fonctionnels et de performance pour les systèmes autonomes. • Ingénierie de Données Moderne et machine learning : Une expérience avec l'écosystème Databricks et/ou Snowflake dans un contexte d'IA (Snowpark, Lakehouse, Vector DBs) sera un plus. Soft skills attendus • Esprit d’équipe et communication : Capacité avérée à travailler en équipe pluridisciplinaire et à communiquer efficacement avec des profils variés (équipes métier, IT, data). • Résolution de problèmes : le candidat doit faire preuve de réflexion analytique pour ajuster les approches, diagnostiquer les bugs des modèles/agents et améliorer en continu les solutions IA. • Curiosité et apprentissage continu :Le domaine de l’IA évolue très vite (nouveaux modèles, nouveaux outils chaque mois) : le candidat doit assurer une veille technologique et monter en compétence rapidement sur de nouveaux sujets. • Adaptabilité : Capacité à adapter les solutions développées suite aux retours des utilisateurs ou à l’évolution des contraintes (par exemple, ajuster un agent en fonction de nouvelles politiques de sécurité ou de nouvelles API disponibles). • Sensibilité à la Gouvernance (Registries, MLOps) et l'Évaluation des systèmes agentiques en production Démarrage: 02/01/2026 Durée: 6 mois renouvelables
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Expert MLOps & LLMOps
Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)
12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Mission freelance
[FBO] Ingénieur LLM - Agents autonomes / LangGraph Sénior
Publiée le
LangGraph
MLOps
Python
3 ans
400-680 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de fonctionnalités data science. Les missions sont: 1- Conception et développement d’agents autonomes avec LangGraph : - Architecturer des agents conversationnels ou décisionnels (ex: agents multi-outils, boucles de rétroaction, mémoire contextuelle). -Intégrer des modèles de langage (LLMs) via LangGraph pour des tâches complexes (ex: raisonnement multi-étapes, orchestration de workflows). -Optimiser les stratégies de prompt engineering et les mécanismes de contrôle (ex: function calling, tool use, plan-and-execute). 2- Intégration avec des pipelines ML/MLOps existants : -Connecter les agents LangGraph à des modèles custom (ex: fine-tuned LLMs, modèles de séries temporelles) via APIs ou pipelines. -Automatiser le versioning des agents et leur déploiement. 3- Ingénierie des données et features pour les agents : -Construire des pipelines de données pour alimenter les agents -Développer des mécanismes de mémoire (ex: bases de connaissances dynamiques). -Optimiser les coûts et la scalabilité (ex: caching des réponses, model distillation pour les edge cases). 4- Tests et robustesse : -Mettre en place des tests automatisés pour les agents (ex: simulations de dialogues, injection de fautes). -Surveiller les dérives comportementales (ex: hallucinations, boucles infinies) avec LangSmith. -Documenter les limites et cas d’usage (ex: matrice de risques pour les décisions critiques). Compétences souhaitées: Expérience avancée avec LangGraph : -Maîtrise des composants clés : StateGraph, prebuilt tools, human-in-the-loop, et intégration avec des LLMs. -Expérience en déploiement d’agents en production. Python et écosystème IA : -Bibliothèques : langgraph, langchain, llama-index, pydantic. -Frameworks ML : PyTorch/TensorFlow (pour customiser des modèles si besoin).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
46 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois