Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 159 résultats.
CDI

Offre d'emploi
Tech Lead Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
CDI

Offre d'emploi
Tech Lead Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Freelance

Mission freelance
Administrateur Cybersécurité SOAR

STHREE SAS pour COMPUTER FUTURES
Publiée le
Ansible
Cortex XSOAR

6 mois
210-400 €
Montpellier, Occitanie
Bonjour, Je suis à la recherche Administrateur Cybersécurité SOAR : Missions principales : Ø Participer au choix, à la conception et au déploiement de la solution SOAR (ex : , Cortex XSOAR, Splunk Phantom, D3 Security). Ø Assurer l’intégration technique avec les outils de sécurité (SIEM, EDR, Threat Intelligence, pare-feux, IAM, etc.). Ø Garantir la haute disponibilité, la résilience et l’évolution technique de la plateforme. Ø Développer et maintenir des playbooks pour les cas d’usage sécurité (triage, enrichissement, confinement). Ø Coordonner les actions entre les outils pour réduire les délais de détection et de réponse. Ø Mesurer et optimiser le taux d’automatisation et l’efficacité des playbooks. Ø Explorer l’intégration de capacités IA (Machine Learning, LLM) pour la classification des alertes et la chasse aux menaces. Ø Appliquer les pratiques CI/CD et Infrastructure as Code pour la gestion des playbooks et connecteurs (Git, GitLab, tests automatisés).
CDI

Offre d'emploi
Responsable Practice IA & DATA (H/F)

K-Lagan
Publiée le
Big Data
Direction de projet
IA Générative

50k-80k €
Paris, France
🚀 K-LAGAN recrute un(e) Responsable Practice IA&DATA (H/F) 🌟 Rejoignez une aventure stratégique et innovante au cœur de la Data & de l’Intelligence Artificielle ! Chez K-LAGAN France , nous recherchons un(e) profil senior et expérimenté pour piloter et développer nos activités Data & IA , dans le cadre de projets à forte valeur ajoutée, au sein d’un environnement en pleine croissance. 📍 Localisation : Paris (Île-de-France) et/ou Niort (Nouvelle-Aquitaine) – mode hybride 🔥 Pourquoi nous rejoindre ? En intégrant K-LAGAN, vous rejoignez une équipe d’experts passionnés par la Data, l’IA et les technologies de pointe. Vous interviendrez sur des projets innovants , en collaboration avec des clients et partenaires de renom , tout en contribuant activement à la structuration et au rayonnement de notre practice Data & IA . 🎯 Votre rôle En tant que Data & IA Project Manager / Responsable Practice IA , vous piloterez des projets complexes Data & IA et accompagnerez la montée en puissance de notre expertise interne. 👨‍💻 Vos principales responsabilités : Piloter des projets Data & IA de bout en bout : cadrage, conception, développement, mise en production. Recueillir et analyser les besoins métiers afin de proposer des solutions adaptées et innovantes. Définir une vision stratégique Data & IA , alignée avec les objectifs business. Superviser et animer des équipes pluridisciplinaires (data engineers, data scientists, MLOps, business analysts). Développer et intégrer des solutions basées sur le Machine Learning, Deep Learning, NLP , etc. Assurer la gouvernance, la qualité et l’éthique des données (RGPD, gestion des risques, biais algorithmiques). Mettre en place et suivre des KPIs pour mesurer la performance et la valeur des projets. Être un(e) ambassadeur(rice) de la Data & de l’IA , accompagner le changement et vulgariser les enjeux auprès des parties prenantes non techniques.
CDI

Offre d'emploi
Data Governance Lead F/H

DSI group
Publiée le
Data governance

Luxembourg
DSI Group recherche un Data Governance Lead H/F pour son client basé au Luxembourg. Nous recherchons un(e) Data Governance Lead pour jouer un rôle clé dans la structuration et le déploiement de la gouvernance des données du client. Ce poste stratégique est au cœur des enjeux de fiabilité, conformité et valorisation des données, au service des activités assurance, santé et gestion de patrimoine. Vous interviendrez comme référent(e) de la gouvernance data, en lien étroit avec les équipes BI, Data, IA & Data Science, afin de garantir une exploitation responsable, conforme et performante des données dans une organisation résolument data-centric. Vos missions : Définir et déployer le cadre de gouvernance des données à l’échelle du Groupe Concevoir et opérationnaliser les modèles de responsabilité et de propriété des données, en cohérence avec les principes du Data Mesh Mettre en place des standards de qualité, de documentation et des indicateurs clés de gouvernance Structurer les pratiques de gestion des métadonnées, de traçabilité et de cycle de vie des données Garantir la conformité réglementaire (CAA, Solvabilité II, RGPD, CSSF), notamment pour les données sensibles Animer les comités de gouvernance data et accompagner les parties prenantes métiers et IT Collaborer avec les équipes IA & Machine Learning afin d’assurer une exploitation éthique et responsable des données Promouvoir et diffuser une culture data forte au sein de l’organisation
Freelance

Mission freelance
Digital Product Owner

Codezys
Publiée le
API
Azure
KPI

12 mois
Madrid, Espagne
Détails du projet : Entreprise : multinationale dans la santé Localisation : Europe (fuseau CET) Mode de travail : télétravail ou hybride Date de début : janvier 2026 Durée : 12 mois Langues : anglais obligatoire, espagnol apprécié Charge de travail : temps plein Objectif du poste : Recruter un Product Owner Digital pour piloter l'évolution d'un chatbot IA destiné à soutenir les collaborateurs. Il sera responsable de la stratégie produit, de la feuille de route, et de l'optimisation pour garantir fiabilité, pertinence et évolutivité, afin d'améliorer l'expérience utilisateur et l'efficacité opérationnelle. Principales responsabilités et activités clés : Stratégie produit & Feuille de route : Définir la vision et la feuille de route Réaliser analyses concurrentielles et de marché Établir et suivre KPIs et métriques de succès Prioriser les cas d'usage selon leur valeur et coût Expérience utilisateur & Conception : Collecter et analyser les retours utilisateurs Collaborer avec UX/UI pour améliorer l'ergonomie et les interactions Définir personas, parcours et cas d'usage Gestion technique du produit : Collaborer avec les ingénieurs IA/ML pour améliorer les capacités du chatbot Gérer l'intégration avec les systèmes d'entreprise Superviser la qualité des données et la gouvernance Définir exigences de performance, scalabilité et sécurité Gestion des parties prenantes : Identifier de nouveaux cas d'usage et opportunités d'automatisation Présenter des rapports d'avancement à la direction Animer réunions et ateliers inter-fonctionnels Gérer relations avec partenaires technologiques Analyse & Optimisation : Suivre les indicateurs de performance et d'adoption Réaliser tests A/B et expérimentations Produire des rapports et améliorer continuellement le produit Charge de travail : variable selon les besoins du projet et le contexte opérationnel.
CDI

Offre d'emploi
Développeur Java Python F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Java
Numpy
Python

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant AI MLOps

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
IA
IA Générative

3 mois
Paris, France
Kajenthi@RED Global – Recherche Consultant IA/ MLOPS – Freelance – 3 mois - Paris intramuros – Hybride RED Global recherche un Consultant IA/ MLOPS, avec une casquette de Product Owner et Project Manager , en Freelance, sur Paris et avec un client final. Votre mission sera d’intervenir dans la delivery, la gestion de projets et la structuration des processus IA et MLOPS Détails du poste: Lieux: Paris – Hybride Type de contrat : Freelance – 3 mois Démarrage : ASAP 1 entretien uniquement Stack technique: AWS, Python et CI/CD Profil recherché : Plus de 5 ans d’experience en tant que Consultant IA/ MLOPS Expérience en Data Science et Machine Learning Expérience poussée sur AWS Cloud data et Python Il faudra: Piloter le projet Collaborer avec les Business Partners IT pour structurer, qualifier et prioriser les nouvelles demandes liées à l’IA Assurer l’intégration des activités et pipelines IA dans les processus et outils CI/CD Langues : Maîtrise du français et anglais (obligatoire) Si vous souhaitez recevoir plus d’information sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail au
Freelance
CDI

Offre d'emploi
Product Owner Junior

Codezys
Publiée le
JIRA

12 mois
40k-45k €
240-350 €
Lille, Hauts-de-France
Contexte et équipe : Mission : fournir, maintenir et faire évoluer des solutions d'orchestration et planification pour le groupe. Équipe composée d'environ 7 personnes, experts en automatisation et intégrateurs. Enjeux principaux : Gestion du Legacy : Dollar Universe, Automic Automation, AWX. Convergence vers la solution cible : Argo Workflow. Rapatriement des outils tiers : Cloud Scheduler, Cloud Tasks, etc. Objectifs : Simplifier le paysage technique en décommissionnant progressivement les outils legacy au profit d'Argo. Développer l’offre autour d’Argo Workflow. Organisation et collaboration : Fonctionnement en méthode Agile. Collaboration étroite avec les équipes produits pour transformer leurs besoins en solutions techniques. Poste de Product Owner : Gérer la transition vers Argo Workflow. Piloter la roadmap fonctionnelle et mener une Discovery pour comprendre l’usage actuel et lever les freins à l’adoption d’Argo. Maintenir un équilibre entre la dette technique (legacy : U/AWA) et l’innovation (Argo). Interagir avec les stakeholders (Tech, Ops, Produit) et organiser les rituels pour assurer la pertinence des développements. Responsabilités principales : Définition de la Roadmap : Construire la vision produit pour la migration progressive vers Argo Workflows tout en assurant la pérennité des outils legacy ($U, AWA). Gestion du Backlog : Prioriser avec le Lead Engineer et l’Engineering Manager, entre évolutions des outils modernes et maintenance critique. Interface privilégiée : Servir de lien entre l’équipe technique et les utilisateurs (Product Teams), comprendre leurs contraintes et proposer des solutions adaptées. Communication et accompagnement : Informer sur les changements, nouvelles fonctionnalités et accompagner dans l’adoption d’Argo/AWX. Discovery et interviews utilisateurs : Aller à la rencontre des équipes Ops, Dev, Data & IA/ML pour comprendre leurs usages (Jobs, Workflows, dépendances). Pilotage par la valeur : S’assurer que chaque livraison apporte de la valeur ajoutée et respecte les standards de qualité.
Freelance

Mission freelance
Développeur MLOps expérimenté

Codezys
Publiée le
Cloud
Kubernetes
MLOps

12 mois
Paris, France
Organisation et contexte Dans une grande entreprise de télécommunications, la Direction des Systèmes d'Information est en charge des projets liés à la donnée, à l'innovation et à l'intelligence artificielle, avec une culture de transformation des usages et des processus. En 2025, plusieurs étapes ont été réalisées dans le domaine de l'intelligence artificielle, notamment la mise en place d'un processus pour identifier des cas d’usage IA, ainsi que des expérimentations consolidées sur une plateforme commune basée sur une infrastructure cloud grand public. À la clé, quelques produits IA ont été déployés en production et accessibles à tous. Pour 2026, l'objectif est d'élargir le portefeuille de produits IA et de faciliter leur intégration dans les processus métier, tout en augmentant la capacité de production grâce à une veille technologique continue et à l'innovation dans le domaine de l'IA. Objectif de la prestation Nous recherchons une prestation avec un profil de spécialiste en développement MLOps expérimenté, capable de travailler sur une infrastructure hybride combinant des solutions on-premises et cloud (GCP). Les objectifs spécifiques de cette mission sont : 1. Accélérer le développement de projets IA : Développer et déployer des solutions basées sur l’IA générative et agentique Mettre en œuvre des modélisations en Deep Learning et Machine Learning 2. Contribuer à l'industrialisation des solutions IA : Mettre en pratique les principes DevOps et MLOps pour assurer la qualité, la scalabilité et la facilité de maintenance des modèles et applications IA Optimiser l’utilisation des capacités des plateformes cloud et de la gestion des charges de travail IA, en garantissant performances et rentabilité 3. Développer des fonctionnalités pour un portail d’IA interne : Créer des outils ou fonctionnalités pour améliorer notre portail interne dédié à l’IA
Freelance

Mission freelance
POT8855 - Un Expert Python / IA – LLM sur Orléans

Almatek
Publiée le
Python

6 mois
250-350 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Expert Python / IA – LLM sur Orléans. Contexte : Plusieurs sujets stratégiques autour de l’intelligence artificielle et des modèles de langage (LLM) sont actuellement en cours, ce qui motive la recherche d’un expert Python capable d’accompagner ces initiatives. Descriptif du poste : L’expert Python interviendra sur des projets de développement back-end intégrant des briques IA. Il participera à la conception, au développement et à l’optimisation de solutions exploitant des modèles de langage (LLM), ainsi qu’à l’industrialisation de ces usages dans le SI existant. Il sera force de proposition sur les choix techniques et les architectures. Compétences attendues : Expertise confirmée en développement Python Expérience sur des projets IA / Machine Learning et/ou LLM Maîtrise de frameworks Python (Django, Flask, FastAPI ou équivalent) Expérience dans l’intégration et l’exploitation de modèles de langage (API, pipelines, prompt engineering, etc.) Connaissance des architectures API, du traitement de données et des environnements Linux Autonomie, capacité d’analyse et sens de la collaboration.
CDI
Freelance

Offre d'emploi
Consultant Lead Tech Expert Data IA

Signe +
Publiée le
Intelligence artificielle

24 mois
45k-50k €
322-500 €
Paris, France
Missions : intégrer le dispositif existant sur les nouveaux projets IA tout en impactant positivement le "delivery" de la phase de cadrage / EO / MVP / début des développements pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs dans le PP Data et au-delà (PU/PP concernés par les projets, CABD, ADIA...). Contexte: Dans le cadre des projets transformants sous l'angle d'Agent IA supra, le PP Data porte la responsabilité de plusieurs projets transformants et recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec une forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Attendu: le/les candidats devront pouvoir s'appuyer sur son expertise technique du marché (état de l'art de secteur entre secteurs, ROI, axe de développement...) ainsi que celle de son cabinet sur la vertical Data IA : benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Au cours du T1, un travail spécifique sur le Next Best Offer et les IA MKT cadré / MVP (choix du périmètre métier, performance, activation et utilisations d'autres produits du SI Marketing et IA) avec les briques technologiques à l'état de l'art à utiliser (IA Gen - LLM/SLM, RAG, ML et modèles IA non Gen..), pour les travaux nécessaires à la bonne tenue des jalons temporels de la feuille de route des produits IA de l'équipe en 2026. Compétences humaines : communication, bon relationnel, organisation et rigueur, sens du travail en équipe, autonomie Profil : Consultant Lead Tech Expert Data IA Nombre d'années d'expérience : + de 7 ans Compétences techniques requises : SAP PP Consensus Adversial Robustness Toolbox CA Gen AI Cloud cost management RAG
Freelance

Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube

Signe +
Publiée le
Dataiku

12 mois
700 €
Malakoff, Île-de-France
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
CDI

Offre d'emploi
Product Owner - Lille (59)

AGH CONSULTING
Publiée le
Argo CD

40k-50k €
Lille, Hauts-de-France
L’équipe a pour mission de fournir, maintenir et faire évoluer les solutions d'orchestrations et de planification d'exécutions pour l'ensemble du groupe. L'équipe est composée d'environ 7 personnes, incluant des experts en automatisation et intégrateurs. Les enjeux sont clairs : - Gestion du Legacy (Dollar Universe, Automic Automation, AWX) - Convergence vers la Cible (Argo Workflow) - Rapatriement des Outils Tiers (Cloud Scheduler, Cloud Tasks...) L'objectif est de simplifier le paysage technique en décommissionnant progressivement les trois outils legacy au profit d'Argo. Mais aussi le plus important, continuer le développement de l’offre autour d’Argo Workflow. L'équipe fonctionne en organisation Agile et collabore étroitement avec les équipes produits consommatrices pour traduire leurs besoins fonctionnels en solutions techniques d'orchestration. Nous recherchons un Product Owner expérimenté capable de gérer cette transition. Vous devrez non seulement piloter la roadmap fonctionnelle, mais surtout mener une Discovery approfondie pour comprendre les usages actuels et lever les freins à l'adoption d'Argo. Ce rôle est primordial pour accompagner la transformation de notre offre d'orchestration. Vous devrez gérer l'équilibre entre la dette technique (maintenance des outils legacy $U/AWA) et l'innovation (déploiement d'Argo Workflows). Le Product Owner amène nos produits d'orchestration à un niveau supérieur en étant en relation permanente avec les stakeholders (équipes Tech, Ops, et Produit) et en organisant les rituels nécessaires pour s’assurer de la pertinence des développements. Vos responsabilités principales : - Définition de la Roadmap : Construire et porter la vision produit, en définissant une stratégie claire pour la migration progressive des flux legacy vers la cible (Argo Workflows), tout en assurant la pérennité de l'existant ($U, AWA). - Gestion du Backlog : Avec le Lead Engineer et L’Engineering Manager, prioriser les besoins entrants, qu'il s'agisse de demandes d'évolutions sur les outils modernes ou de maintenance critique sur le legacy. - Interface Privilégiée : Faire le lien entre l'équipe technique (experts orchestration) et les utilisateurs clients (les autres Product Teams). Comprendre leurs contraintes pour proposer les solutions d'orchestration les plus adaptées. - Communication et Accompagnement : Assurer la communication sur les changements d'outils, les nouvelles fonctionnalités et accompagner les utilisateurs dans l'adoption des nouveaux standards (Argo/AWX). - Mener des User Interviews et des discovery : Aller à la rencontre des équipes Ops, Dev, Data & IA/ML qui utilisent actuellement AWX, $U ou AWA. Comprendre leurs cas d'usages réels (Jobs, Workflows, dépendances). - Pilotage par la valeur : S'assurer que chaque incrément délivré (qu'il soit technique ou fonctionnel) apporte de la valeur et répond aux standards de qualité de la plateforme.
Freelance

Mission freelance
Data Engineer confirmé - DATA et IA

Calytis
Publiée le
Big Data
Cloud
DevOps

12 mois
450-510 €
Paris, France
La prestation vise à contribuer à la réalisation des initiatives Data et IA 2026 au sein de la direction Informatique et d’un environnement technologique Cloud et Big Data. Elle a pour objectif de mettre à disposition une expertise Data engineering et de produire et d’industrialiser des traitements de données, des alimentations vers le socle Data et des composants Data/IA, tout en facilitant l’exploitation de ces éléments par les équipes consommatrices de données. La prestation s’inscrit également dans un cadre de collaboration avec les équipes internes Data science. sur des usages analytiques et IA, afin d’assurer la bonne compréhension, formalisation et couverture des besoins Data liés aux cas d’usage. La prestation consiste à : a. Réalisation et automatisation des flux de données - Conception et développement de flux d’alimentation de données vers les environnements Data et Innovation. - Mise en oeuvre de pipelines Cloud automatisés (Snowflake, Python, PySpark, services AWS tels que CloudFormation, Lambda, EMR, S3, EC2, Step Functions…). - Intégration de données issues de sources multiples, structurées ou non structurées. b. Développement de produits et composants Data/IA -Conception et réalisation de traitements, applications ou composants Data/IA. - Participation à l’industrialisation de modèles IA/ML et IA générative. c. Structuration, qualité et gouvernance des données - Normalisation, nettoyage, qualification et validation des données. - Documentation des structures de données, référentiels et règles de gestion. - Contribution à la cartographie et au référencement des données. d. Formalisation et clarification des besoins Data - Contribution à la formalisation des besoins Data exprimés par les équipes utilisatrices (dont les équipes analytiques). - Organisation et animation des ateliers nécessaires à cette clarification. e. Conception et intégration Cloud/DevOps - Mise en oeuvre et automatisation des déploiements via Azure DevOps. - Participation aux architectures Cloud Data (AWS + Snowflake). - Intégration de traitements ETL/ELT selon les standards techniques Livrables : Pipelines et flux d’alimentation opérationnels, automatisés et documentés. - Composants ou produits Data/IA prêts à l’usage. - Cartographie et documentation des données intégrées (référentiels, dictionnaires, règles). - Rapports de contrôle qualité, incluant duplications, cohérence, fraîcheur, conformité RGPD. - Documentation technique et architecture (Cloud, DevOps, Data). - Supports d’ateliers de clarification des besoins Data. - Datalake alimenté et dimensionné, avec données validées.
Freelance

Mission freelance
Data Engineer senior - DATA et IA

Calytis
Publiée le
AWS Cloud
CI/CD
MLOps

12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

159 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous