L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 93 résultats.
Offre d'emploi
INGÉNIEUR DEVOPS
EterniTech
Publiée le
Azure
GenAI
Méthode Agile
3 mois
Paris, France
Je cherche pour un de mes clients un DEVOPS AI Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentation Compétences techniques: -Terraform - Confirmé - Impératif -GenAI - Junior - Important -Azure - Confirmé - Important - Agile - Junior - Souhaitable Connaissances linguistiques: -Français Courant (Impératif) -Anglais Professionnel (Impératif) Description détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. **VOTRE PROFIL** * Bac +3 à Bac +5 en informatique, génie logiciel, ou équivalent. * Expérience professionnelle confirmée (minimum 3 ans) en développement logiciel, idéalement en environnements Cloud (Azure). * Solides compétences en programmation Python et JavaScript (Node.js, React) ; bonne pratique des design patterns backend/frontend. * Expérience avec les architectures cloud Azure : AKS, WebApp, storage, services PaaS et bonnes pratiques d’exploitation. * Maîtrise de la conteneurisation et de l’orchestration (Docker, Kubernetes) et des pipelines CI/CD (Azure DevOps, GitHub Actions). * Connaissance d’Infrastructure as Code (Terraform) et des pratiques DevOps. * Compréhension des concepts GenAI (LLMs, RAG, embeddings, vector DB) et capacité à intégrer des composants IA en collaboration avec un AI Engineer ; expérience pratique appréciée mais pas impérative. * Compétences en bases de données SQL/NoSQL et en conception de schémas adaptés aux besoins d’indexation/sémantique. * Rigueur sur la qualité du code : tests, revue, automatisation ; sensibilité aux enjeux de sécurité et de souveraineté des données. * Curiosité technique, capacité d’adaptation (outils et stacks variables selon les besoins), esprit d’équipe et bon relationnel. * Familiarité avec les outils low-code/no-code est un plus. * Anglais professionnel (lu/écrit) ; français courant indispensable. * Disponible pour être en régie sur 2026, et participer activement à la construction et à la standardisation des pratiques d’une AI Factory interne. Définition du profil : DEVOPS ENGINEER INGÉNIEUR DEVOPS Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps Description du besoin : Mission :DEVOPS Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé
Offre d'emploi
Machine Learning/ML Engineer
WINSIDE Technology
Publiée le
Python
3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Offre d'emploi
Tech Lead IA
BLOOMAYS
Publiée le
Agent IA
Développement
80k-100k €
Paris, France
Dans le cadre d’une nouvelle phase stratégique, l’objectif est de construire une IA verticale dédiée à l’éducation secondaire : structurée, évaluée, industrialisée et maîtrisée en production. Il ne s’agit pas d’intégrer un simple LLM, mais de concevoir une architecture agentique robuste , pensée pour un contexte pédagogique exigeant, avec une forte attention à la qualité, à la fiabilité et aux performances. 🏗️ Missions En tant que Tech Lead IA, vous prenez la responsabilité du pôle IA et de son architecture. Vous serez au cœur de la construction d’une IA agentique spécialisée, reposant sur des workflows LLM structurés (raisonnement, orchestration d’outils, récupération de connaissances, évaluation, contrôle qualité). Architecture & systèmes IA Concevoir des workflows agentiques multi-étapes (planification, génération, vérification, amélioration) Structurer des pipelines RAG et de récupération de connaissances Orchestrer plusieurs modèles et outils externes Concevoir une gestion robuste du contexte et de la mémoire Définir des standards de développement et d’architecture durables Industrialisation & performance Transformer des prototypes en systèmes production-ready Garantir la performance, la stabilité et la maîtrise des coûts Mettre en place des stratégies d’évaluation automatique (tests, métriques, guardrails) Assurer monitoring, observabilité et amélioration continue Leadership technique Encadrer une petite équipe d’ingénieurs IA Participer au recrutement et à la structuration du pôle IA Instaurer une culture d’exigence technique et d’expérimentation rigoureuse Collaborer étroitement avec Produit et Infra 🧠 Environnement technique Le client ne recherche pas une stack précise : l’enjeu principal est la capacité à concevoir des systèmes IA robustes . Python (souvent utilisé, mais pas exclusif) Développement structuré / orienté objet Architectures LLM : RAG, agents, orchestration, évaluation Cloud, Docker, CI/CD, monitoring (selon contexte)
Mission freelance
Data Scientist Gen.AI (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
France
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles. Gros plus: connaitre le cloud AWS
Offre d'emploi
Architecte IA (H/F)
1G-LINK CONSULTING
Publiée le
CI/CD
MLOps
Python
12 mois
Paris, France
Contexte : Dans le cadre de projets stratégiques autour de la Data et de l’Intelligence Artificielle, nous recherchons un(e) Architecte IA pour accompagner la conception de solutions innovantes et scalables. Missions : Définir les architectures IA (data, modèles, pipelines) Concevoir des solutions robustes, performantes et industrialisables Encadrer les choix techniques et les bonnes pratiques Mettre en place des frameworks MLOps et de gouvernance Accompagner les équipes projets (data scientists, ingénieurs, IT) Compétences techniques : Architectures Data & IA Cloud (AWS / Azure / GCP) MLOps, CI/CD, industrialisation Python & écosystème IA Expérience en IA générative (LLM, NLP) appréciée
Mission freelance
IA Ready Lead
ESENCA
Publiée le
Agent IA
GenAI
Pilotage
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Ready Lead pilote la préparation et la structuration des données et connaissances nécessaires aux systèmes d’intelligence artificielle. Il/elle encadre une équipe dédiée à la mise en qualité des contenus et à leur exploitation optimale pour les solutions IA (copilots, agents, RAG). Encadrement Management d’une équipe spécialisée pouvant inclure : Knowledge Manager IA Ready Data / IA Ready Analyst Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de la conformité et de l’adoption Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets spécialisés Mission Le/la IA Ready Lead est responsable de la préparation fonctionnelle, sémantique et organisationnelle des données utilisées par les solutions d’intelligence artificielle. Il/elle garantit la disponibilité, la qualité, la cohérence et la traçabilité des bases de connaissances, et définit les standards permettant d’optimiser la performance des systèmes IA. Responsabilités principales 1. Définition de la stratégie IA Ready Définir la stratégie de préparation des données pour l’IA Identifier et cartographier les sources de connaissances Prioriser les sources en fonction des cas d’usage Définir l’architecture fonctionnelle des bases de connaissances 2. Standards de structuration et performance RAG Définir les standards de structuration des contenus (taxonomie, tagging, hiérarchie) Définir les règles de segmentation (chunking) adaptées aux usages IA Fixer les niveaux de granularité optimaux pour la recherche par similarité Définir les critères de qualité permettant d’améliorer la pertinence des réponses 3. Pilotage de la préparation des contenus Qualifier les besoins de contenus avec les équipes IA Delivery Superviser la structuration, le nettoyage et l’enrichissement des données Définir les critères d’acceptation IA Ready (qualité, complétude, fraîcheur) Garantir la cohérence sémantique et métier des bases de connaissances 4. Coordination transverse Collaborer avec les équipes IT pour l’ingestion et la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour assurer l’adéquation avec les cas d’usage Organiser les boucles de feedback entre usage et amélioration des contenus 5. Gouvernance et documentation Définir les standards de documentation des bases de connaissances Mettre en place les règles de gouvernance (ownership, validation, versioning) Structurer les processus de mise à jour et de maintenance Garantir la traçabilité des sources et des transformations 6. Qualité et fiabilité des données Définir les règles de qualité des données IA Mettre en place des contrôles et indicateurs de qualité Suivre les écarts et piloter les plans d’amélioration Garantir la fiabilité et la lisibilité des contenus 7. Industrialisation et réutilisation Concevoir des modèles de connaissances réutilisables Standardiser les pratiques IA Ready Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques au sein de l’organisation 8. Contribution à la conformité Assurer la traçabilité des sources utilisées Veiller au respect des règles de protection des données Contribuer aux exigences des équipes en charge de la conformité
Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)
STORM GROUP
Publiée le
MLOps
Pandas
Python
3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Offre d'emploi
Data Scientist - IA Générative (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow
43 800 €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Lead Data Scientist
Signe +
Publiée le
Big Data
12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Offre d'emploi
Product Owner IA (H/F)
STORM GROUP
Publiée le
Confluence
IA
JIRA
3 ans
56k-60k €
500-550 €
Île-de-France, France
• Management de Produit & Agilité : Expérience confirmée en tant que Product Owner (ou poste équivalent) dans un contexte agile. Vous savez définir une vision produit, gérer un backlog, rédiger des user stories et animer une équipe agile multidisciplinaire. Une certification Product Owner ou Scrum Master serait un plus • Culture Data Science & IA : Solide culture des technologies Data et IA. Sans être Data Scientist vous-même, vous comprenez les concepts clés du Machine Learning (modèles prédictifs supervisés, scoring, etc.) ainsi que les approches d’IA Générative (LLMs, agents conversationnels…). Vous êtes capable d’échanger de manière fluide avec des Data Scientists sur des sujets comme la performance d’un modèle ou le fine-tuning d’un LLM. Vous vous tenez informé(e) des avancées du domaine (ex : nouvelles offres d’OpenAI/HuggingFace, frameworks comme LangChain) et percevez comment les appliquer concrètement à des cas d’usage métiers • Coordination Technique & MLOps : Bonne compréhension de l’écosystème Data Engineering/MLOps. Vous n’hésiterez pas à participer aux discussions techniques sur l’architecture des solutions IA. Idéalement, vous êtes familier avec le cycle de vie d’un modèle ML : du prototypage à la mise en production Cloud (Azure, conteneurisation Docker/Kubernetes, pipelines automatisés), en incluant le monitoring (data drift, performance, feedback utilisateurs). Vous savez ainsi challenger et soutenir techniquement l’équipe dans les choix de solution, et comprendre les contraintes d’échelle et de sécurité propres au secteur bancaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
93 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois