Trouvez votre prochaine offre d’emploi ou de mission freelance MLOps
Votre recherche renvoie 104 résultats.
Mission freelance
AI Engineer - Azure
Groupe Aptenia
Publiée le
Azure
MLOps
Python
1 an
450-500 €
Grenoble, Auvergne-Rhône-Alpes
Nous sommes à la recherche d'un AI Engineer qui interviendra chez l'un de nos clients pour développer et industrialiser des modèles d’optimisation énergétique pour anticiper les besoins des bâtiments en fonction de la météo, des coûts et de l’origine de l’énergie. La phase exploratoire a déjà été réalisée, le Focus se fera sur le backend Python et l’industrialisation des modèles existants. 🎯 Vos missions clés ✅ Développer des solutions backend (Python, Azure) pour l’optimisation énergétique. ✅ Industrialiser des modèles de forecasting déjà existants. ✅ Collaborer avec une équipe de 6-7 Data Scientists.
Mission freelance
Ingénieur OPS
CAT-AMANIA
Publiée le
Ansible
Gitlab
12 mois
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Ingénieur OPS pour le compte de notre client, acteur majeur dans le secteur des assurances. Dans un contexte de transformation et de modernisation du SI, vous interviendrez sur un projet stratégique de migration du patrimoine applicatif vers GitLab, avec le décommissionnement des outils existants. Ce projet s’inscrit pleinement dans les normes et bonnes pratiques de la DSI. À ce titre, vos missions seront les suivantes : Mise en place et optimisation des chaînes CI/CD pour l’intégration et le déploiement des applications Automatisation des déploiements via Ansible, AWX et GitLab CI Accompagnement des équipes de développement dans la prise en main des nouveaux outils et processus Évolution des pratiques DevOps pour intégrer ce nouveau socle technique Installation et configuration des outils nécessaires à l’industrialisation Mise en place de nouvelles procédures et diffusion des bonnes pratiques Rédaction de documentation technique (Wiki, README, procédures) Vous évoluerez dans un environnement technique riche : Intégration & déploiement : Git, GitLab CI, Ansible, AWX Qualité & sécurité : SonarQube Monitoring : Centreon, Prometheus, Grafana, Dynatrace Environnements : .NET, Windows Server, Java, Linux
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Mission freelance
Architecte Data & IA – Plateforme & Socle
VISIAN
Publiée le
Azure
Azure DevOps
Databricks
1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Offre d'emploi
Architecte infrastructure / cloud
Atlanse
Publiée le
CI/CD
DevSecOps
IAM
3 ans
65k-70k €
550-650 €
Paris, France
Vous intégrez une équipe d’architectes techniques en charge d’un SI critique et hybride. Vous intervenez sur la structuration d’une plateforme infra/cloud souveraine, résiliente et multi-provider, avec des enjeux forts de standardisation, de conteneurisation, de virtualisation et de modernisation applicative. Votre rôle Architecture cible et modernisation SI · Revoir de manière transverse les architectures existantes · Accompagner la modernisation des applications, notamment sur les sujets de conteneurisation, de découplage et d’évolution des modèles d’hébergement · Définir des patterns d’architecture standardisés et réutilisables · Accompagner, lorsque pertinent, l’intégration de nouveaux usages d’IA dans les architectures existantes Résilience, continuité et disponibilité · Améliorer la résilience globale des architectures, en environnement on-premise comme cloud · Faire évoluer les architectures mono-AZ vers des modèles multi-AZ / multi-sites lorsque cela est pertinent · Définir des stratégies de redondance adaptées aux contraintes techniques et réglementaires · Concevoir, structurer et industrialiser les dispositifs de PRA / PCA Structuration de la plateforme infra / cloud · Participer à la stratégie de conteneurisation (Kubernetes / OpenShift) et à la définition des usages, standards et bonnes pratiques associés. · Concevoir des architectures compatibles avec les contraintes SecNumCloud · Mettre en place des landing zones gouvernées et sécurisées · Arbitrer les choix d’architecture entre complexité de plateforme, besoins réels et contraintes du SI Standardisation et industrialisation · Standardiser les dispositifs sous forme de modèles industrialisés et réutilisables · Structurer les pipelines CI/CD à l’échelle du SI et promouvoir des modèles de déploiement standardisés · Intégrer ces standards dans les architectures et les pipelines · Collaborer étroitement avec les équipes automatisation
Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA
VISIAN
Publiée le
Azure
Azure Data Factory
Data quality
1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Offre d'emploi
Ingénieur OPS Cloud
VISIAN
Publiée le
Ansible
Kubernetes
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'ingénierie de Production (rôle IT OPS) pour accompagner dans le cadre de la gestion des applications du build au run du périmètre Cash Management pour un grand groupe bancaire, dans un contexte Agile et cloud (IBM/Kubernetes). Les projets de déploiement sur lesquels interviendra le candidat sont en cours de construction avec pour objectif d'avoir une mise en production avant la fin de l'année. Par conséquent, une forte culture cloud (infrastructure, système & réseau, base de données) est indispensable avec une expérience en contribution projets côté OPS afin d'assurer une rapide adaptation du candidat. L'Ingénieur OPS intervient au sein d'une équipe mode Agile (Scrum), autonome et pluridisciplinaire, composée de ressources IT métiers (les « Dev ») et de ressources OPS, responsabilisées autour d’un ou plusieurs produits. Missions Création ou mise à jour des environnements cloud & on premise (VM, bases de données, clusters, namespaces, message queues, VIP) Gestion de l’intégration, d’installation, de la mise à jour et de l’exploitation applicative dans le cadre des évolutions et des projets Migration des applications vers le cloud DMZR (cloud IBM / Kubernetes) Mise à jour des consignes d’exploitation et de contribution au passage en patrimoine Accompagnement technique et fonctionnel Gestion des chaînes de déploiements via Ansible Tower, Gitlab CI/CD, Digital AI Release, Jenkins Participation au diagnostic et à la résolution des incidents Mise en place de monitoring avec la mise en place d’indicateurs de performance/surveillance avec la stack Elastic et Dynatrace Proposition d'axes d’optimisations, d’industrialisations, d’amélioration des méthodes, processus et outils de l’équipe Veille à l’application des bonnes pratiques, des standards du groupe Participation à la documentation technique et applicative Opérations en HNO et astreintes Au sein de l'équipe Agile, il : Participe à l’ensemble des rituels Agile (Sprint planning, Daily Meeting, Review, Rétro) Communique des exigences infrastructure et exploitation dans le product backlog Participe à l’évaluation de la complexité des User Stories lors des sprint planning Implémente les User Stories techniques et d’exploitation du Product Backlog Réalise durant le sprint de façon autonome les tâches relatives à la production, ou bien coordonne les parties prenantes « Production Mutualisée » extérieures à l'équipe Agile Déclare les obstacles (impediments) et les remonte aux bons interlocuteurs Supporter les bonnes pratiques OPS : Assurer la montée en compétence de l’équipe Agile sur les bonnes pratiques DevOps (profil confirmé et senior) Sensibiliser et propager les bonnes pratiques OPS au sein de l’équipe Faire monter en compétence les membres de son équipe sur les outils d’exploitation mis à disposition dans le cadre DevOps Promouvoir les solutions standards ou expérimentales répondant aux problématiques de l’équipe ou orienter vers les architectes Challenger l’équipe sur les solutions proposées en s’appuyant sur son expertise Ops Contribuer à l'enrichissement du backlog des fonctions OPS : Remonter les feedbacks vers les équipes OPS pour identifier les prochaines fonctionnalités des composants d’infrastructure à développer Faciliter les déploiements : Participer à la mise en place des Jalons Qualités (Quality Gates) Contribuer à la mise à disposition des ressources d’infrastructure : Anticiper les problématiques de conformité aux règles et standards d’architecture, de sécurité, de délais de livraisons et de mise à l’échelle des solutions proposées Obtenir et gérer les ressources techniques en tant que référent Implémenter et surveiller l’utilisation des services de production (OpStore…) Assurer la traçabilité des accès aux machines (OS, espace de stockage, routeurs…) Tester l’exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Identifier les points de blocage Ops (flux, sécurité, réseau…) puis alerter et proposer des plans d’action Contribuer au Maintien en Conditions Opérationnelles (MCO) du produit : Implémenter la surveillance et la supervision des ressources d’infrastructures Participer à l’amélioration des outils de surveillance et supervision Communiquer l’analyse des résultats à l’équipe Proposer des ajustements concernant les indicateurs de pilotage des produits Veiller à la disponibilité d’une documentation d’installation et d’exploitation à jour et validée Contribuer à la gestion des incidents Contribuer à la gestion des problèmes (Time to fix / Time to repair - réparation de la cause qui a généré l’incident) Appliquer les principes du continuous operations / exploitation
Mission freelance
Expert Openshift (Module AI) - Vorstone
VORSTONE
Publiée le
AI
CI/CD
DevOps
6 mois
650-750 €
Bouches-du-Rhône, France
Vorstone recherche un profil d'Expert Openshift (Module AI si possible) pour un client basé dans la région PACA (13) capable d'intervenir sur la mise en place et l’industrialisation d’une plateforme IA / GenAI sécurisée , avec une forte dimension build et structuration du RUN (MCO, gouvernance, exploitation) . Dans le cadre d’un projet stratégique, Red Hat OpenShift est au cœur de la mise en place d’une plateforme IA / GenAI sécurisée et industrialisée . La mission consiste à construire et structurer un environnement robuste, en intégrant dès l’origine les enjeux de sécurité, d’exploitation et de gouvernance. Tout est à construire avec le client, on recherche un profil expérimenté avec vrai apport de valeur. 👉 Vos responsabilités : Mise en place et structuration d’un RUN IA / GenAI sécurisé MCO d’une plateforme en environnement sensible Intégration des processus d’exploitation et de gouvernance Gestion des patchs, upgrades et montées de version OpenShift Contribution à l’industrialisation et à la fiabilité de la plateforme Apport d’expertise et de bonnes pratiques (DevOps / SRE)
Mission freelance
Dév/ops domaine logistique
CAT-AMANIA
Publiée le
Boomi
Logistique
1 an
100-450 €
Lille, Hauts-de-France
Au sein de la Value Chain, vous intégrerez le sous domaine de la logistique sur un produit. Ce produit a pour vocation d'être un connecteur centrale de la logistique: traiter l'ensemble des flux de la logistique, en interne comme en externe exposer les données de la logistique au réseau donner l'autonomie aux autres produits de venir créer leurs propres flux et d'en faire le support Vous serez spécialisé sur la partie 3PL (connecteur logistique pour des prestataires externes) et aurez à charge : le support des flux de la plateforme 3PL (gestion du backlog de tickets support, monitoring et proactivité, gestion d'incident, astreinte?) venir en aide aux autres équipes qui développent leurs process et flux sur la plateforme BOOMI (assistance technico-fonctionnelle) le support de niveau 2 des flux qui transitent par la plateforme Octolog le maintien et la correction des process et flux standard 3PL
Mission freelance
Responsible AI Analyst
ESENCA
Publiée le
GenAI
Large Language Model (LLM)
MLOps
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Responsible AI Lead Position dans l’organisation Le/la Responsible AI Analyst contribue à la mise en œuvre opérationnelle du dispositif d’IA responsable. Il/elle intervient sur l’analyse des risques, la conformité, les contrôles et la traçabilité des systèmes d’intelligence artificielle tout au long de leur cycle de vie. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Analyst met en œuvre les exigences de gouvernance, de conformité et de gestion des risques des systèmes d’intelligence artificielle. Il/elle s’assure que chaque cas d’usage respecte les cadres réglementaires et les standards internes, en produisant les analyses, contrôles et documentations nécessaires. Responsabilités principales 1. Gouvernance et conformité IA Appliquer la politique d’usage de l’IA Contribuer à la classification des cas d’usage selon leur niveau de risque Mettre en œuvre les standards de documentation et de versioning Assurer la traçabilité des éléments clés (prompts, sources, modèles, décisions) Préparer les éléments pour les revues conformité (juridique, DPO, sécurité) 2. Analyse des risques IA Réaliser les analyses de risques par cas d’usage Identifier les risques : biais, hallucinations, dérive, sécurité, incohérences métier Classifier les systèmes selon leur criticité Formaliser les exigences de conformité associées 3. Contrôles et tests IA Exécuter les tests non fonctionnels : robustesse biais sécurité hallucinations dérive Documenter les résultats et remonter les non-conformités Contribuer à la préparation des décisions de validation (go / no-go) 4. Documentation et audit Contribuer à la documentation réglementaire des systèmes IA Maintenir les preuves, logs et éléments de conformité Préparer les éléments nécessaires aux audits Assurer la cohérence et la complétude des dossiers 5. Supervision en production Suivre les incidents IA après déploiement Mettre à jour les indicateurs de conformité et de risque Contribuer aux revues périodiques (performance, fiabilité, dérive) Participer à l’amélioration continue des dispositifs de contrôle 6. Traçabilité et registre IA Mettre à jour le registre des systèmes IA Maintenir la journalisation (logs, décisions, prompts) Garantir la conformité des mécanismes de traçabilité Contribuer à l’évolution des standards de traçabilité 7. Suivi de la consommation IA Suivre les usages et la consommation des ressources IA Identifier les usages non conformes ou excessifs Alerter en cas d’écart par rapport aux règles définies Contribuer au pilotage de l’efficience des usages IA 8. Application des politiques IA Appliquer les politiques et guidelines IA Contribuer à leur mise à jour Participer à la sensibilisation des équipes Promouvoir les bonnes pratiques d’IA responsable
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision
Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker
6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Offre d'emploi
Ingénieur OPS Senior
VISIAN
Publiée le
Artifactory
IaaS (Infrastructure-as-a-Service)
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le but de garantir en production la qualité du service, la disponibilité et l’intégrité des ressources informatiques, dans le respect du contrat de service en coordination avec l’ensemble des productions du groupe et contribution à l’amélioration du service rendu. Missions Appui transverse sur les 3 process de base de la production (Incidents, Changements, Problèmes) Prise en charge de la gestion et la communication sur les incidents majeurs du début jusqu’à leur résolution dans le respect des SLA Participation aux crises majeures et coordination des incidents multi-équipes Picking qualité L’ingénieur OPS intervient au sein d'une équipe mode Agile (Scrum), autonome et pluridisciplinaire, composée de ressources IT métiers (les « Dev ») et de ressources OPS, responsabilisées autour d’un ou plusieurs produits. Dans ce cadre, il : Participe à l’ensemble des rituels Agile (Sprint planning, Daily Meeting, Review, Rétro) Communique des exigences infrastructure et exploitation dans le product backlog Participe à l’évaluation de la complexité des User Stories lors des sprint planning Implémente les User Stories techniques et d’exploitation du Product Backlog Réalise durant le sprint de façon autonome les tâches relatives à la production, ou bien coordonne les parties prenantes « Production Mutualisée » extérieures à l'équipe Agile pour laquelle il intervient Déclare les obstacles (impediments) et les remonte aux bons interlocuteurs Supporter les bonnes pratiques OPS : Assurer la montée en compétence de l’équipe Agile sur les bonnes pratiques DevOps (Profil confirmé et Senior) Sensibiliser et propager les bonnes pratiques OPS au sein de l’équipe Faire monter en compétence les membres de son équipe sur les outils d’exploitation mis à disposition dans le cadre DevOps Promouvoir les solutions standards ou expérimentales répondant aux problématiques de l’équipe ou orienter vers les architectes Challenger l’équipe sur les solutions proposées en s’appuyant sur son expertise Ops Contribuer à l'enrichissement du backlog des fonctions OPS : Remonter les feedbacks vers les équipes OPS pour identifier les prochaines fonctionnalités des composants d’infrastructure à développer Faciliter les déploiements : Participer à la mise en place des Jalons Qualités (Quality Gates) Contribuer à la mise à disposition des ressources d’infrastructure : Anticiper les problématiques de conformité aux règles et standards d’architecture, de sécurité, de délais de livraisons et de mise à l’échelle des solutions proposées Obtenir et gérer les ressources techniques en tant que référent Implémenter et surveiller l’utilisation des services de production (OpStore…) Assurer la traçabilité des accès aux machines (OS, espace de stockage, routeurs…) Tester l’exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Identifier les points de blocage Ops (flux, sécurité, réseau…) puis alerter et proposer des plans d’action Contribuer au Maintien en Conditions Opérationnelles (MCO) du produit : Implémenter la surveillance et la supervision des ressources d’infrastructures Participer à l’amélioration des outils de surveillance et supervision Communiquer l’analyse des résultats à l’équipe Proposer des ajustements concernant les indicateurs de pilotage des produits Veiller à la disponibilité d’une documentation d’installation et d’exploitation à jour et validée Contribuer à la gestion des incidents Contribuer à la gestion des problèmes (Time to fix / Time to repair - Réparation de la cause qui a généré l’incident) Appliquer les principes du continuous operations / exploitation
Mission freelance
IA Delivery Product Owner / Business Analyst
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
104 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois