Trouvez votre prochaine offre d’emploi ou de mission freelance MLOps
Offre d'emploi
Product OWNER DATA : Data Science / IA / RPA -NIORT
Dans le cadre du renforcement de notre pôle DATA, ARGAIN Consulting Innovation recherche un Product Owner DATA (H/F) expérimenté, avec une forte culture Data / IA / RPA / Data Science. En tant que PO DATA, vous serez responsable de l’ensemble du cycle de vie du produit, de l’idéation jusqu’au déploiement, en garantissant systématiquement la création de valeur métier . Vous jouerez un rôle pivot entre les équipes métiers (gestionnaires, actuaires, finance, commerce…) et les équipes techniques (data engineers, data scientists, développeurs RPA / IA), dans un environnement où l’accélération de la culture DATA est un enjeu clé. Vos responsabilités incluent notamment Pilotage produit Cadrer et qualifier les besoins métiers et les transformer en cas d’usage DATA concrets Définir la vision produit et la feuille de route associée Construire et prioriser le backlog en lien avec les équipes techniques Piloter la conception et la mise en production des solutions Mesurer et valoriser l’impact (ROI, gains opérationnels, expérience collaborateur…) Animation & coordination Animer les ateliers de cadrage, comités de pilotage et démonstrations produits Faciliter la collaboration entre les acteurs métiers et les squads Data Acculturer les métiers aux usages Data / IA / RPA Challenger les demandes pour orienter vers les solutions les plus efficaces Vision & apport d’expertise Identifier de nouveaux cas d’usage en lien avec les enjeux stratégiques Porter les innovations (IA, automatisation, MLOps, data science appliquée) Contribuer à la structuration du modèle opérationnel de l’équipe DATA Participer à l’amélioration continue des processus de delivery Data Ce rôle s’inscrit dans un environnement de transformation où l’autonomie, le leadership fonctionnel et la capacité à piloter la valeur sont essentiels.
Offre d'emploi
Ingénieur DataOps IA
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
Mission freelance
MLOps / Azure AI
Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.
Offre d'emploi
Architecte d’Entreprise / Expert Data
Responsabilités clés 1. Migration Réaliser l’inventaire des flux, usages BI et pipelines existants. Définir le séquencement et les jalons de bascule par périmètre métier. Identifier les dépendances critiques, organiser les périodes de double-run. Piloter la mise en conformité et les tests de non-régression. 2. Gouvernance Mettre en place un cadre fédéré : rôles (owner, steward, plateforme), responsabilités, comités. Définir et documenter les règles : qualité, accès, certification ( gold ), catalogage, contrats de données. Assurer la traçabilité, l’auditabilité et la conformité réglementaire (RGPD, normes internes). 3. MLOps / DataOps & IA Standardiser les chaînes de traitement : pipelines déclaratifs, tests de qualité intégrés, observabilité. Définir les processus de mise en production et de suivi des modèles IA : drift, coût, performance, explicabilité. Mettre en place la séparation claire entre environnements (sandbox vs production). Garantir la fiabilité des services data et IA en production. 4. Politique budgétaire / FinOps Élaborer et piloter le budget cible (licences, run, évolutions). Définir des KPI financiers : coût par usage, €/TB traité, coût par modèle IA, variance vs budget. Mettre en place le showback/chargeback par domaine ou produit. Industrialiser le suivi FinOps via tableaux de bord et alertes.
Mission freelance
AI Engineer
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Offre d'emploi
Ingénieur MLOPs DevOps H/F
Nous recherchons un Ingénieur MLOPs DevOps , vous rejoindrez l’équipe en charge du développement et de la mise en production de modèles prédictifs stratégiques pour l’entreprise. Votre rôle consistera à concevoir et maintenir des infrastructures fiables, scalables et sécurisées pour supporter les activités de data science. Vous serez responsable de l’automatisation des déploiements via des pipelines CI/CD, du développement de scripts et d’outils en Python, et de l’orchestration d’applications dans des environnements Kubernetes. Vous travaillerez en étroite collaboration avec les data scientists et data engineers pour industrialiser les workflows de machine learning, faciliter l’expérimentation, le suivi des modèles et optimiser leur déploiement en production. Vos missions incluront : - Concevoir, automatiser et maintenir des pipelines CI/CD pour les applications et modèles. - Développer et maintenir des outils en Python pour l’industrialisation des processus. - Gérer la conteneurisation et l’orchestration avec Kubernetes (obligatoire). - Assurer la sécurité, la supervision et la performance des systèmes en production. - Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Helm). - Accompagner les équipes de data science sur les aspects MLOps (tracking d’expériences, gestion des modèles, monitoring).
Offre d'emploi
AI Engineer / Developer
Attention, 50% du temps sur site client à Bruxelles (au moins 2 jours par semaine non négociable) Développement technique de la solution GenAI Choix, implémentation et ajustement des modèles LLM Mise en place et gestion des bases de données vectorielles Intégration des sources de données (SharePoint Online) Optimisation des prompts Supervision du pipeline de données Contribution au déploiement sécurisé dans Azure Cloud : Microsoft Azure Données : Documentation technique interne (PDF sur SharePoint Online) Architecture cible : Chatbot avec RAG et LLM (OpenAI GPT ou autre), sécurisé, déployé dans Azure Technologies envisagées : Python, Azure OpenAI, CI/CD, REST API, IAM, RBAC
Mission freelance
DataOps AWS Engineer -MlOps
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Offre d'emploi
Data Scientist - IA Générative
Le Groupe voit dans l'arrivée des technologies d'IA Générative une opportunité majeure pour améliorer la productivité et la créativité de ses collaborateurs. Le Groupe a atteint un niveau de maturité sur le sujet qui l'amène à renforcer son dispositif intervenant sur les IA Génératives. Ce renfort doit permettre d'étendre le périmètre du projet à tous les métiers du groupe (maitrise de l'ingéniérie et de la performance) et de lancer les prochaines incubations (agents, graphrag, etc.) Nature de prestation : Le renfort interviendra en tant que Data Scientist pour accompagner les explorations et mise en service de pilote de nouveaux services pour nos directions métier. Le terrain de jeux sera les IA génératives et l'écosystème de technologies autour. Il sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (exploration, incubation, industrialisation, run) Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique
Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.
Mission freelance
Data Engineer - Azure
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Mission freelance
Machine learning engineer
Concevoir, développer et industrialiser des modèles de Machine Learning et d’IA, du prototype à la production Construire et maintenir les pipelines de données et de MLOps (entraînement, évaluation, déploiement) Participer à l’architecture et au développement des produits IA (plateforme MLOps, solutions LLM comme RAGGA, GPT interne) Garantir la scalabilité, la robustesse et la performance des solutions IA Assurer la qualité du code via des tests automatisés, des revues et du monitoring Participer à la CI/CD sur GCP et GitHub selon les pratiques DevOps/MLOps Documenter les modèles, pipelines et configurations Gérer le cycle de vie complet des modèles (build & run)
Mission freelance
Product Owner Data / RPA & IA - Assurance
Nous à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Avec des déplacements à Niort. Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026, le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté. Rattaché(e) au Centre de Data Management, vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques. Profil du candidat Compétences demandées Compétence Niveau de maîtrise RPA / Confirmé ★★★★☆ MLOps / Confirmé ★★★★☆ Tableau / Confirmé ★★★★☆ Dataiku / Confirmé ★★★★☆ Data Science / Confirmé ★★★★☆ Technologies et mots-clés : #UIPA #DATAIKU #DATAVIZ #TABLEAU #SQL #CLOUD #BO #IA #RPA
Mission freelance
Expert LLM - Consultant Learning
Nous recherchons pour le compte d'un client dans le secteur des Assurances un Expert LLM / Gen AI - Consultant Learning. Le client propose un parcours d'apprentissage en ingénierie ML/LLM à l'échelle mondiale et recherche une personne pour aider à sa mise en œuvre. Missions : Améliorer le référentiel existant de formation MLOps/ML Engineering Évoluer vers un pipeline ML sur AWS et Databricks Animer les ateliers que nous proposons aux entités dans le cadre de la formation Apporter une expertise sur les meilleures pratiques en matière d'ingénierie LLM Soutenir la création de contenu pour les pratiques d'ingénierie LLM Mettre en œuvre ces pratiques dans un environnement sandbox et un outil de benchmarking
Mission freelance
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Hausse CSG
- Démission pour création d'entreprise ET are
- Réflexion de carrière : viser une expérience anglophone pour renforcer ma valeur ?
- Développer son activité
- Création d’une agence de développement comment aller vite ?
- 💼 Début de Freelance – LLD voiture via SASU à l’IS : possible dès maintenant ?