Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 179 résultats.
Freelance

Mission freelance
IA ENGINEER

CHOURAK CONSULTING
Publiée le
AWS Cloud
GenAI
LangChain

3 mois
400-670 €
Île-de-France, France
Nous recherchons un LLM Engineer confirmé / senior avec un fort background Data Scientist , pour intervenir sur des projets stratégiques autour de l’ IA Générative et des architectures RAG sur AWS. 🎯 Contexte de la mission Vous intégrerez une équipe en charge de concevoir et industrialiser des solutions IA basées sur des LLM , avec des enjeux forts de performance, sécurité et scalabilité. L’objectif : passer du prototype à la production sur des cas d’usage métier à fort impact. ⚙️ Missions principales Concevoir et développer des solutions basées sur des LLM . Mettre en place des architectures RAG (Retrieval Augmented Generation) . Développer des agents IA avec LangChain / LlamaIndex ou frameworks équivalents. Déployer et industrialiser les solutions sur AWS . Optimiser les performances (fine-tuning, embeddings, prompt engineering avancé). Collaborer avec les équipes Data, IT et métiers pour cadrer les cas d’usage. Participer aux phases de POC puis d’industrialisation.
Freelance
CDI

Offre d'emploi
GenAI agent developer

adbi
Publiée le
CI/CD
LangChain
LangGraph

12 mois
45k-55k €
550-600 €
Île-de-France, France
Développeur d’agents GenAI Nous recherchons un ingénieur IA / data scientist expérimenté ayant déjà construit des agents IA de niveau production , incluant des mécanismes de sécurité, de gestion des identités et d’observabilité . Ce rôle s’inscrit au cœur d’une initiative mondiale visant à accélérer l’industrialisation et la mise à l’échelle de l’IA générative au sein de l’organisation . Au sein de la squad Data & AI , vous interviendrez comme développeur SDK dans l’équipe plateforme GenAI , afin d’assurer la cohérence, la scalabilité et la mise en production des agents développés au sein du Groupe. Vous travaillerez avec plusieurs équipes pour définir et faire évoluer le SDK , afin qu’il soit utile, utilisable, adopté et utilisé par les ingénieurs IA et data scientists du Groupe. Le SDK constitue un produit central au sein du Groupe , déployé dans différents environnements : infrastructures sécurisées on-premise déploiements cloud globaux Ce poste est idéal pour un ingénieur IA qui combine : une maîtrise du fonctionnement des agents IA une bonne compréhension des systèmes d’identité et de sécurité une approche pragmatique orientée livraison de produits et services en production avec l’ambition de façonner la manière dont les agents IA à grande échelle sont développés, exploités et maintenus en entreprise . 1. Contexte et objectifs Une plateforme GenAI et des modèles fondamentaux sont déjà déployés dans plusieurs environnements : infrastructures on-premise zones restreintes et sécurisées L’ingénieur devra prendre en charge le SDK existant et faire évoluer la solution vers un système entièrement industrialisé, déployable et maintenable , utilisable de manière cohérente dans tous les environnements. L’ingénieur travaillera à temps plein au sein de l’équipe plateforme et de la communauté AI Engineer en tant que relais technique de la plateforme GenAI , avec pour mission de : rendre le SDK utile, utilisable et adopté par les AI Engineers contribuer au développement et à l’évolution du SDK intégrer les principes de sécurité, d’identité et d’observabilité dans le SDK afin de produire des agents prêts pour la production documenter et accompagner les ingénieurs IA dans l’utilisation du SDK dans leurs produits 2. Compétences et expérience requises Compétences techniques Bonne maîtrise des frameworks et outils : LangGraph LangChain MLflow Python Solides connaissances des protocoles, identités et sécurité : OIDC MCP token forwarding on-behalf-of Expérience démontrée en industrialisation de produits agents IA , incluant : automatisation systèmes de mise à jour packaging pipelines de déploiement observabilité Expérience dans des environnements sécurisés ou réglementés : environnements isolés (air-gapped) zones restreintes gestion des secrets Compréhension de : CI/CD gestion du cycle de vie logiciel gouvernance des configurations
CDI
Freelance

Offre d'emploi
Data Analyst expert BIG DATA xp Hadoop

ARDEMIS PARTNERS
Publiée le
Big Data
Data analysis
Hadoop

3 mois
30k-45k €
320-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Afin de renforcer les capacités d’analyse et de valorisation de la donnée au sein de la société (organisme collecteur de gestion), nous recherchons un Data Analyst Big Data capable d’intervenir sur des environnements de données volumineuses et complexes. Le Data Analyst interviendra sur l’analyse, l’exploitation et la transformation de données issues de différentes sources afin de produire des insights à forte valeur ajoutée pour les équipes métiers et techniques. Il contribuera à la mise en place de solutions analytiques performantes sur des architectures Big Data , en collaboration étroite avec les équipes Data Engineering, IT et métiers. Mission Le Data Analyst interviendra sur des activités d’analyse, de traitement et de valorisation de données à grande échelle. Analyse et exploitation des données Collecter, analyser et exploiter de grands volumes de données issues de différentes sources. Concevoir et produire des analyses permettant d’identifier des tendances, comportements et opportunités business. Mettre en place des indicateurs de performance et tableaux de bord pour le suivi des activités. Traitement et préparation des données Manipuler et transformer des données volumineuses via des technologies Big Data (Spark / Hadoop) . Nettoyer, structurer et enrichir les données pour garantir leur qualité et leur exploitabilité. Collaborer avec les équipes Data Engineering pour optimiser les pipelines de données. Production d’insights et accompagnement métier Traduire les besoins métiers en analyses de données exploitables. Restituer les résultats sous forme de visualisations ou de recommandations. Accompagner les équipes métiers dans la compréhension et l’utilisation des analyses produites. Collaboration technique Travailler en collaboration avec les équipes Data Engineers, Data Scientists et IT . Participer à l’amélioration continue des outils et des processus d’analyse de données.
Freelance
CDI

Offre d'emploi
Chef de projet Data (H/F)

CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
Freelance
CDI

Offre d'emploi
Ingénieur Machine Learning / Deep Learning

VISIAN
Publiée le
Computer vision
FastAPI
Flask

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets.
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance
CDI

Offre d'emploi
Chef.fe de projet IA senior

Atlanse
Publiée le
Confluence
Gestion de projet
IA

3 ans
50k-65k €
400-550 €
Paris, France
En tant que chef.fe de projet IA, vous pilotez plusieurs projets IA stratégiques au sein de la Cellule IA. Vous travaillez en étroite collaboration avec le tech lead de la Cellule IA ainsi que les équipes techniques (développeurs, data scientists, architectes) et les métiers. Votre rôle Pilotage de projets IA • Piloter plusieurs projets IA en parallèle (NLP, RAG, assistants, etc.) • Organiser et animer les rituels agiles (backlog, sprints, priorisation, comités projet) • Assurer le suivi des jalons, des risques, des dépendances et des arbitrages • Contribuer à la structuration et à l’amélioration continue des méthodes de pilotage de la Cellule IA Interface métiers / technique • Recueillir, clarifier et reformuler les besoins métiers • Traduire les besoins fonctionnels en exigences claires et exploitables par les équipes techniques • Travailler en étroite collaboration avec le tech lead et les équipes de développement • Faciliter les échanges et l’alignement entre métiers, data, IA et IT Gouvernance, reporting et communication • Produire et maintenir un reporting projet clair (avancement, alertes, décisions) • Assurer une communication claire et synthétique vers la gouvernance • Concevoir des supports de suivi et d’aide à la décision • Contribuer à la documentation projet (Confluence, livrables) sur le volet fonctionnel et veiller à la complétude de la documentation technique Conduite du changement • Accompagner les métiers dans l’appropriation des solutions IA • Anticiper et intégrer les enjeux d’adoption, d’acculturation et de transformation des usages
Freelance

Mission freelance
Tech Lead Senior (Applications Marketing & Data)

Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)

12 mois
500-540 €
Île-de-France, France
Nous recherchons un Tech Lead Senior pour piloter et faire évoluer plusieurs applications stratégiques liées à la performance des assets média. Vous évoluerez dans une équipe pluridisciplinaire composée de profils variés (Développeurs Full Stack, Data Scientists, Data Engineers, Product Owner, QA) dans un environnement dynamique et orienté data. L’une des applications principales vise à offrir une vision complète de la performance et de l’optimisation des assets média , couvrant l’ensemble de la chaîne de valeur : de la stratégie globale jusqu’à l’activation locale . Missions principales Leadership technique Encadrer et superviser les ressources techniques de l’équipe. Assurer le rôle de référent technique et accompagner les développeurs dans les choix technologiques et les bonnes pratiques. Architecture & conception Concevoir et définir les architectures et solutions techniques des applications. Garantir la robustesse, la scalabilité et la maintenabilité des systèmes. Développement & intégration IA Piloter et gérer des applications intégrant des briques d’intelligence artificielle : gestion de la code base data pipelines optimisation des modèles déploiement et supervision Intervenir sur l’ensemble de la stack : Front-end, Back-end, Cloud Infrastructure et DevOps . Data & Cloud Exploiter et intégrer les données issues du datalake du Groupe (BigQuery) . Maîtriser l’écosystème Google Cloud Platform (GCP) et contribuer aux bonnes pratiques d’architecture cloud. Collaboration transverse Agir comme point de contact technique auprès des équipes transverses : Cybersécurité Data Privacy Enterprise Architecture Garantir la conformité des solutions aux standards du groupe. Résolution de problématiques techniques Investiguer et résoudre des problématiques techniques complexes : debugging avancé optimisation des performances migration d’infrastructures amélioration continue des systèmes. Profil recherché Expérience confirmée en lead technique / Tech Lead / Architecte . Solides compétences en développement full stack et architectures cloud . Expérience sur Google Cloud Platform (GCP) et BigQuery . Bonne compréhension des architectures data et IA/ML pipelines . Capacité à travailler dans un environnement transverse et collaboratif . Forte aptitude à analyser, diagnostiquer et résoudre des problèmes techniques complexes .
Freelance
CDI

Offre d'emploi
Architecte Data Azure / Databricks

xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Freelance

Mission freelance
POT8951 - Un Data Analyste sur Massy

Almatek
Publiée le
Docker

6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
CDI

Offre d'emploi
Business Analyst Pharmaceutique F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data engineer

SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
CDI

Offre d'emploi
Développeur Python / IA

CAT-AMANIA
Publiée le
Agent IA
DevOps
Python

40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Freelance
CDI

Offre d'emploi
PRODUCTION OWNER TECHNIQUE GEC

VISIAN
Publiée le
Docker
Kubernetes

1 an
40k-80k €
400-700 €
Paris, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif d’assurer une mission d'ownership technique du produit "RAG as a Service" Contexte: - Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). - 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists - Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les métiers du Groupe. - Un GRID de GPU on premise utilise pourle training et l'inference. - Pratiques DevSecOps / GitOps / MLOps / LLMOps - Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits. Les missions principales : - Participation à l’élaboration technique et fonctionnelle du produit IA qui sera attribué en lien étroit avec les équipes Solutions Engineering (veille technologique IA) et DevSecOps (industrialisation). - Garantie du respect des contraintes de sécurité, de conformité et de confidentialité applicables aux standards de production IT du groupe (eg. observabilité, auditabilité, traçabilité, contrôle des accès). - Définition et implémentation des mécanismes techniques permettant aux métiers ou à leur IT d’opérer leur propre gouvernance de votre produit. - Établissement, maintient et agrémentation de la feuille de route technique du produit afin d’apporter de la valeur de manière continue à celui-ci en lien avec les besoins de vos clients métiers. - Accompagnement au quotidien des utilisateurs et décideurs métiers et IT du groupe BNP Paribas qui utilisent votre produit et s’assurer avec eux de la mise en application des bonnes pratiques d’usage de celui-ci au sein de leurs équipes. - Supervision des opérations critiques (changement, déploiement, mise à jour) avec une vision de bout en bout des impacts sur les différents services gérés par l’équipe. - Organisation et documentation de la gestion des incidents?: analyse de root-causes, coordination inter-équipes. - Capacité à être moteur dans l’amélioration des processus internes et l’alignement avec les autres équipes du domaine IA & Données. - Capacité à être le représentant de la relation technique avec les fournisseurs qui contribuent à l’élaboration de votre produit (éditeurs logiciels, équipes d’industrialisation, équipes d’infrastructures).
CDI
Freelance

Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client

SMILE
Publiée le
Data analysis
Transformation digitale

3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Freelance

Mission freelance
100960/Product Owner technique Socle IA et Agentique (IA Gen) de la Plateforme Data & IA - Nantes

WorldWide People
Publiée le
IA

12 mois
400 €
Nantes, Pays de la Loire
Product Owner technique sur le périmètre Socle IA et Agentique (IA Gen) de la Plateforme Data & IA. L’objectif est de structurer et d’industrialiser les capacités plateforme qui permettent : - Côté Socle IA, de fabriquer, déployer et opérer des modèles d’IA classique (cycle de vie ML de bout en bout) ; - Côté IA Gen, d’outiller le passage à l’échelle de l’agentique (outils, frameworks, patterns) et de sécuriser le cycle de vie global d’un produit agentique (de la conception à l’exploitation). Les services LLM et les services partagés (OCR, Embedder, Speech2Text) étant déjà pilotés par des PO, l’enjeu de cette mission est de compléter le dispositif sur la brique agentique et de garantir une industrialisation robuste : réutilisabilité, qualité de service, observabilité, gouvernance d’usage et adoption. Cadrage & priorisation (avec le PM) - Qualifier les besoins, formaliser les cas d’usage et critères d’acceptation. - Décliner la vision PM en backlog/roadmap opérationnels, arbitrer valeur/risque/effort. Socle IA – cycle de vie ML - Piloter les évolutions plateforme permettant la fabrication et le déploiement : industrialisation des parcours, standards, documentation, templates - Contribuer aux exigences run : observabilité, performance, fiabilité, exploitabilité. IA Gen – outillage agentique - Définir et piloter la mise en place des outils & frameworks (orchestration, composants réutilisables, patterns). - Structurer le cycle de vie agentique : intégration, tests, évaluation, supervision, sécurité/guardrails, itérations. Pilotage delivery - Animer le backlog (refinement, planning, démos), suivre l’avancement, gérer dépendances/risques. - Coordonner dev/lead tech/data scientists/ops/archi, et sécuriser la qualité des livraisons. Adoption & documentation - Produire/mettre à jour la doc produit (guides, exemples, bonnes pratiques) et accompagner les équipes dans la prise en main. - Mettre en place des KPIs (usage, satisfaction, incidents, coût) et alimenter l’amélioration continue.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

179 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous