Find your next tech and IT Job or contract MLOps

Your search returns 46 results.
Permanent
Contractor
Fixed term

Job Vacancy
ML Ops

Published on
BigQuery
Google Cloud Platform (GCP)
MLOps

12 months
40k-59k €
400-600 €
Lille, Hauts-de-France
Hybrid
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Contractor

Contractor job
Data Scientist Sénior - Mi-temps

Published on
CI/CD
Large Language Model (LLM)
MLOps

6 months
Paris, France
Hybrid
Nous recherchons un·e Data Scientist Senior pour rejoindre une équipe Retail composée de 5 Data Scientists, afin de contribuer à l’optimisation et au développement de solutions IA dédiées à l’amélioration du ciblage clients et à la performance des produits. Missions principales Suivre techniquement le développement de solutions data & IA orientées Retail (segmentation, ciblage, scoring…). Participer à l’amélioration continue des modèles existants : recommandations produits, recherche produits, sentiment analysis, scoring, etc. Proposer des approches robustes pour optimiser la performance des modèles et la qualité des livrables. Collaborer avec les équipes métiers pour comprendre les enjeux et traduire les besoins en solutions concrètes. Réaliser la revue de code, assurer la qualité technique et contribuer aux bonnes pratiques. Compétences requises Expertise en développement, déploiement et revue de code (pratiques clean code, MLOps, CI/CD). Expérience solide en prompting et utilisation de modèles LLM. Maîtrise des environnements Cloud, particulièrement Google Cloud Platform et ses outils associés (Dataproc, BigQuery, Vertex AI). Capacité à comprendre les besoins business et à y répondre efficacement via des solutions data performantes. Autonomie, rigueur, sens du collectif, capacité à évoluer dans un environnement agile.
Contractor

Contractor job
Ingénieur MLOps Data & IA

Published on
AI
Amazon S3
Apache Airflow

12 months
500-550 €
Ile-de-France, France
Hybrid
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Permanent
Contractor

Job Vacancy
MLOps Engineer

Published on
Docker
Kubernetes
Python

1 year
35k-70k €
440-670 €
Ile-de-France, France
Hybrid
En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...
Contractor

Contractor job
[FBO] Data Engineer avec expertise MLOps

Published on
Planning
Python

3 years
400-590 €
Ile-de-France, France
Hybrid
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Contractor

Contractor job
Développeur Python Expert – IA

Published on
AI
MLOps
Python

12 months
600-650 €
Paris, France
Hybrid
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Contractor

Contractor job
développeur Cloud & IA

Published on
Azure
Azure Data Factory
Azure DevOps Services

6 months
Les Ulis, Ile-de-France
Hybrid
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Contractor

Contractor job
Machine Learning Engineering

Published on
Google Cloud Platform (GCP)
MLOps
Python

3 years
400-580 €
Paris, France
Hybrid
Développer et optimiser des modèles de recommandation Concevoir des pipelines ML robustes et scalables Déployer des modèles en production (API) Participer à l’A/B testing et à l’évaluation continue des performances Contribuer à l’évolution de l’architecture ML dans un environnement moderne (GCP) Profil recherché: Solide expérience en Machine Learning Engineering Excellente maîtrise de Python, GCP et des frameworks ML Expérience en MLOps, CI/CD, monitoring Capacité à travailler sur des volumes de données conséquents Rigueur, sens de l’analyse et goût pour l’innovation
Contractor
Permanent

Job Vacancy
TECH LEAD IA

Published on
Google Cloud Platform (GCP)
MLOps
Vertex AI

6 months
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Contractor

Contractor job
Ingénieur LLMOPS/MLOps

Published on
CI/CD
Generative AI
Monitoring

3 months
250-700 €
Noisy-le-Grand, Ile-de-France
Hybrid
Bonjour, je suis à la recherche d'un expert MLOPS dont vous trouverez la fiche de poste ci-dessous: Fiche de poste – MLOps / LLMOps – Plateforme IA Générative Introduction Une organisation publique a conçu une plateforme d’IA générative pour répondre à des besoins métiers croissants en bande passante et en accès à des modèles performants. Face à l’augmentation rapide des usages (Assistant IA, outils internes, IA pour développeurs), il devient indispensable de renforcer les capacités opérationnelles et d’optimiser l’infrastructure. Le matériel nécessaire à l’IA générative étant coûteux, l’optimisation de son utilisation est cruciale pour atteindre les objectifs sans dépendre uniquement de l’achat de nouveaux équipements. Dans ce contexte, un profil MLOps est recherché en priorité , avec une expertise LLMOps fortement appréciée . Mission Le MLOps/LLMOps recruté rejoindra la squad Plateforme et travaillera en étroite collaboration avec : Le Product Manager (PM) pour la priorisation des besoins dans une démarche agile ; Le Tech Lead LLMOps, garant du bon fonctionnement de la bande passante générative ; L’équipe Data Science pour le support sur les problématiques IA ; L’équipe Produit et les utilisateurs métiers pour les retours terrain.
Contractor

Contractor job
Expert Dév Python &IA ML- MLOps Sparrow

Published on
AI
Amazon S3
API

12 months
550-660 €
Ile-de-France, France
Hybrid
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Contractor

Contractor job
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Published on
Machine Learning
Python

6 months
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Hybrid
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Contractor

Contractor job
DataOps AWS Engineer -MlOps

Published on
Apache Airflow
AWS Cloud
AWS Glue

12 months
500-580 €
Paris, France
Hybrid
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Contractor

Contractor job
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Published on
Machine Learning
Python

6 months
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Hybrid
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Contractor

Contractor job
Product Owner Data / IA / RPA – Valorisation de la Donnée

Published on
Dataiku
MLOps
Robotic Process Automation (RPA)

12 months
420 €
Niort, Nouvelle-Aquitaine
Hybrid
Dans le cadre de sa stratégie de transformation 2025–2026 , notre client souhaite renforcer son dispositif autour de la valorisation de la donnée et de l’ industrialisation des cas d’usage Data, IA et RPA . L’objectif est d’accompagner l’équipe de développement DATA dans la structuration, la priorisation et la livraison de produits à forte valeur ajoutée, tout en garantissant leur alignement avec les besoins métiers. Rattaché(e) au manager de l’équipe Data , vous jouerez un rôle clé de pivot entre les métiers et les équipes techniques , de la détection des opportunités jusqu’à la mise en production. Vous serez garant(e) de la valeur métier et de l’ impact opérationnel des solutions développées. MISSIONS PRINCIPALES Pilotage et valorisation des initiatives Data / IA / RPA • Identifier, cadrer et prioriser les cas d’usage Data, IA, RPA et MLOps en lien avec les directions métiers. • Challenger les besoins exprimés et accompagner les métiers dans la définition de la valeur ajoutée (quantitative, qualitative, expérience collaborateur). • Animer les comités Data & Innovation et coordonner les différentes parties prenantes (métiers, IT, data scientists, développeurs). • Porter les sujets d’innovation à fort impact métier : automatisation, intelligence artificielle, machine learning. • Aider à la rédaction des études de solution et à la formalisation des modèles opérationnels . Suivi de la structuration et de la livraison des produits • Prioriser les développements au sein des squads en fonction de la valeur business. • Suivre la conception, le développement et la livraison des produits Data. • Contribuer à l’ amélioration continue des pratiques et au modèle opérationnel de l’équipe Data. • Mesurer les résultats et assurer le reporting de la valeur produite . LIVRABLES ATTENDUS • Animation et comptes rendus de comités Data / IA / RPA. • Cadrage et documentation des cas d’usage Data et IA. • Études de solution détaillées et modélisation des processus opérationnels. • Plans d’action et priorisation des initiatives. • Reporting de la valeur métier générée (KPI de performance et d’impact).
Permanent

Job Vacancy
Ingénieur DataOps IA

Published on
AWS Cloud
Generative AI
Google Cloud Platform (GCP)

France
Hybrid
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

46 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us