L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 45 résultats.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
ML Ops
Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps
12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Offre d'emploi
MLOps Engineer
Publiée le
Docker
Kubernetes
Python
1 an
35k-70k €
440-670 €
Île-de-France, France
Télétravail partiel
En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Offre d'emploi
TECH LEAD IA
Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI
6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Mission freelance
Machine Learning Engineering
Publiée le
Google Cloud Platform (GCP)
MLOps
Python
3 ans
400-580 €
Paris, France
Télétravail partiel
Développer et optimiser des modèles de recommandation Concevoir des pipelines ML robustes et scalables Déployer des modèles en production (API) Participer à l’A/B testing et à l’évaluation continue des performances Contribuer à l’évolution de l’architecture ML dans un environnement moderne (GCP) Profil recherché: Solide expérience en Machine Learning Engineering Excellente maîtrise de Python, GCP et des frameworks ML Expérience en MLOps, CI/CD, monitoring Capacité à travailler sur des volumes de données conséquents Rigueur, sens de l’analyse et goût pour l’innovation
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Développeur Python Expert – IA
Publiée le
IA
MLOps
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Mission freelance
développeur Cloud & IA
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Ingénieur LLMOPS/MLOps
Publiée le
CI/CD
IA Générative
Monitoring
3 mois
250-700 €
Noisy-le-Grand, Île-de-France
Télétravail partiel
Bonjour, je suis à la recherche d'un expert MLOPS dont vous trouverez la fiche de poste ci-dessous: Fiche de poste – MLOps / LLMOps – Plateforme IA Générative Introduction Une organisation publique a conçu une plateforme d’IA générative pour répondre à des besoins métiers croissants en bande passante et en accès à des modèles performants. Face à l’augmentation rapide des usages (Assistant IA, outils internes, IA pour développeurs), il devient indispensable de renforcer les capacités opérationnelles et d’optimiser l’infrastructure. Le matériel nécessaire à l’IA générative étant coûteux, l’optimisation de son utilisation est cruciale pour atteindre les objectifs sans dépendre uniquement de l’achat de nouveaux équipements. Dans ce contexte, un profil MLOps est recherché en priorité , avec une expertise LLMOps fortement appréciée . Mission Le MLOps/LLMOps recruté rejoindra la squad Plateforme et travaillera en étroite collaboration avec : Le Product Manager (PM) pour la priorisation des besoins dans une démarche agile ; Le Tech Lead LLMOps, garant du bon fonctionnement de la bande passante générative ; L’équipe Data Science pour le support sur les problématiques IA ; L’équipe Produit et les utilisateurs métiers pour les retours terrain.
Mission freelance
Product Owner Data / IA / RPA – Valorisation de la Donnée
Publiée le
Dataiku
MLOps
RPA (Robotic Process Automation)
12 mois
420 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre de sa stratégie de transformation 2025–2026 , notre client souhaite renforcer son dispositif autour de la valorisation de la donnée et de l’ industrialisation des cas d’usage Data, IA et RPA . L’objectif est d’accompagner l’équipe de développement DATA dans la structuration, la priorisation et la livraison de produits à forte valeur ajoutée, tout en garantissant leur alignement avec les besoins métiers. Rattaché(e) au manager de l’équipe Data , vous jouerez un rôle clé de pivot entre les métiers et les équipes techniques , de la détection des opportunités jusqu’à la mise en production. Vous serez garant(e) de la valeur métier et de l’ impact opérationnel des solutions développées. MISSIONS PRINCIPALES Pilotage et valorisation des initiatives Data / IA / RPA • Identifier, cadrer et prioriser les cas d’usage Data, IA, RPA et MLOps en lien avec les directions métiers. • Challenger les besoins exprimés et accompagner les métiers dans la définition de la valeur ajoutée (quantitative, qualitative, expérience collaborateur). • Animer les comités Data & Innovation et coordonner les différentes parties prenantes (métiers, IT, data scientists, développeurs). • Porter les sujets d’innovation à fort impact métier : automatisation, intelligence artificielle, machine learning. • Aider à la rédaction des études de solution et à la formalisation des modèles opérationnels . Suivi de la structuration et de la livraison des produits • Prioriser les développements au sein des squads en fonction de la valeur business. • Suivre la conception, le développement et la livraison des produits Data. • Contribuer à l’ amélioration continue des pratiques et au modèle opérationnel de l’équipe Data. • Mesurer les résultats et assurer le reporting de la valeur produite . LIVRABLES ATTENDUS • Animation et comptes rendus de comités Data / IA / RPA. • Cadrage et documentation des cas d’usage Data et IA. • Études de solution détaillées et modélisation des processus opérationnels. • Plans d’action et priorisation des initiatives. • Reporting de la valeur métier générée (KPI de performance et d’impact).
Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)
Publiée le
Cloud
Data science
Dataiku
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Offre d'emploi
ML Engineer
Publiée le
Machine Learning
MLOps
Natural Language Processing (NLP)
1 an
40k-45k €
220-580 €
Paris, France
Télétravail partiel
Missions principales Participer au développement, au déploiement et au suivi des services d'IA, impliquant l'utilisation de modèles NLP et leur intégration dans les applications de gestion des risques : Réalisation des POC IA Mise en place d'une pipeline MLOps Industrialisation des Use Cases en production (avec intégration complète aux processus métier et applications existantes) Garantir la qualité et la performance des solutions délivrées en production, en respectant les normes et bonnes pratiques en matière d'IA Maintenir une veille technologique sur les solutions d'IA dans le périmètre défini Participer au maintien et aux évolutions des solutions IA déployées : monitoring et calibrage des modèles en production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 01 : Rappel du calendrier !
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- SASU a l'IR non présente dans mon memento fiscal
- Passage sasu à eurl: transition mutuelle/prévoyance
45 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois