Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist à Paris

Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume. Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique. Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise. In fine, il veille à proposer des solutions de protection efficaces. Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles. Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Votre recherche renvoie 46 résultats.
Freelance
CDI

Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE

SMILE
Publiée le
Data science
IA Générative
RAG

6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
CDI

Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Freelance

Mission freelance
Product Owner – Plateforme ShareAI

ALLEGIS GROUP
Publiée le
IA
IA Générative

2 ans
Paris, France
La plateforme ShareAI est au cœur de l’écosystème IA : un hub centralisé regroupant assets, use cases, formations, ressources techniques et communautés d’experts. Pour soutenir son évolution, nous recherchons un(e) Product Owner passionné(e) par les technologies et la gestion de contenu, capable de structurer, animer et faire grandir cette plateforme stratégique. En tant que Product Owner ShareAI , vous serez responsable de : 🔹 La gouvernance & l’excellence du contenu Garantir une plateforme toujours à jour, claire, organisée et facile à utiliser. Curater et structurer les contenus : assets IA, formations, documentations, use cases, dépôts de code. Définir les standards, templates et bonnes pratiques de publication. Assurer la qualité, la cohérence et la découvrabilité de toutes les ressources. 🔹 L’animation de la communauté IA Développer et fédérer la communauté ShareAI (data scientists, ingénieurs, product owners, équipes métiers…). Organiser onboarding, tutoriels, ateliers et sessions de support. Gérer les retours utilisateurs et identifier les besoins d’évolution. 🔹 La promotion & la valorisation des initiatives IA Mettre en avant les assets, use cases et success stories internes. Créer newsletters, communications et contenus de valorisation. Animer des campagnes d'engagement et événements communautaires. 🔹 La roadmap & l’amélioration continue Identifier les besoins d’évolution de la plateforme. Collaborer avec les équipes techniques pour optimiser l’expérience utilisateur. Maintenir une vision long terme alignée avec la stratégie IA du Groupe.
CDI
Freelance

Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D

SMILE
Publiée le
Méthode Agile

1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Freelance

Mission freelance
Ingénieur Machine Learning (MLOps)

JobiStart
Publiée le
Machine Learning

3 ans
400-550 €
Paris, France
Vous assurez le pont entre la recherche en Data Science et la mise en production des modèles prédictifs. Votre mission principale consiste à industrialiser les pipelines de Machine Learning pour garantir leur robustesse, leur répétabilité et leur scalabilité. Vous mettez en place des chaînes de CI/CD spécifiques au ML (MLOps) incluant le versioning des données, des modèles et du code. Vous développez des outils de monitoring pour détecter la dérive des données (data drift) et la baisse de performance des modèles en production. Vous travaillez sur l'optimisation des infrastructures de calcul (GPU/CPU), la conteneurisation des modèles (Docker/Kubernetes) et l'exposition via des micro-services performants. Expert technique, vous collaborez avec les Data Scientists pour optimiser les algorithmes et avec les équipes Infra pour garantir une intégration fluide dans l'écosystème Cloud ou On-premise de la banque.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Développeur Python/Angular H/F

Nexius Finance
Publiée le
FastAPI
Python

3 ans
Paris, France
Contexte Vous évoluez au sein d’une équipe transverse dédiée au développement rapide de solutions à forte valeur ajoutée pour différents métiers. Notre positionnement est hybride : Développement “commando” en proximité directe avec les équipes métier Conception de solutions innovantes intégrant l’IA Générative Veille technologique et exploration de nouveaux usages autour de la Data et de l’IA Accompagnement à l’industrialisation des solutions dans un environnement IT structuré L’équipe (une vingtaine de profils : data engineers, data scientists, développeurs full stack, tech lead, chef de projet) fonctionne en mode agile , avec une forte culture d’entraide, d’autonomie et de responsabilité collective. Le client recherche un profil capable de s’intégrer dans cette dynamique, avec un bon relationnel et une vraie capacité à interagir avec des interlocuteurs métiers. Missions: Vous interviendrez en tant que Développeur Full Stack sur des sujets variés mêlant développement applicatif et IA générative. Projet principal: Vous démarrerez sur un chantier stratégique : Développement d’une solution d’évaluation ESG d’entreprises à partir d’un corpus documentaire, intégrant des APIs d’IA générative (LLMs, RAG). Vos responsabilités: Concevoir et développer des solutions logicielles de bout en bout Garantir la qualité du code (tests unitaires et fonctionnels, performance, maintenabilité) Développer des interfaces dynamiques et réactives en Angular Concevoir et exposer des APIs via FastAPI Participer à la réalisation de POCs autour de l’IA générative Concevoir des applications intégrant des modèles de type LLM Assurer la maintenance évolutive et le run d’applications existantes Collaborer avec les équipes produit/design lorsque nécessaire Participer à la mise en place des bonnes pratiques (documentation, standards, qualité) Échanger directement avec les équipes métier pour comprendre, challenger et affiner les besoins Profil recherché:Compétences techniques Très bonne maîtrise d’Angular Solide expérience avec FastAPI et les services web Très bonne maîtrise de Python Connaissance des bases de données relationnelles et non relationnelles Maîtrise des outils de versioning (Git) Bonne compréhension des concepts liés à l’IA générative (LLM, RAG, APIs d’IA) Une expérience sur des projets intégrant de l’IA générative est fortement appréciée.
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Freelance

Mission freelance
Ingénieur Azure AI & Cognitive Services

JobiStart
Publiée le
AI
Azure

3 ans
400-550 €
Paris, France
Description du poste : Au sein du lab d'innovation, vous concevez et déployez des solutions d'intelligence artificielle basées sur les services Azure. Votre mission consiste à intégrer des capacités cognitives (Vision, Speech, Language, Decision) dans les applications bancaires pour automatiser les processus et améliorer l'expérience utilisateur. Vous développez des solutions utilisant Azure OpenAI (GPT-4) pour le traitement du langage naturel, le résumé de documents juridiques ou l'analyse de sentiment. Vous mettez en œuvre des architectures MLOps sur Azure Machine Learning pour industrialiser le cycle de vie des modèles, de l'entraînement au déploiement. Vous travaillez sur l'optimisation des coûts (FinOps AI), la sécurité des modèles et l'éthique des algorithmes. Vous collaborez avec les data scientists pour transformer les prototypes en services IA robustes, scalables et directement intégrés aux workflows métiers de la banque.
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.

Les questions fréquentes à propos de l’activité d’un Data scientist

Quel est le rôle d'un Data scientist

À l'ère du Big Data, le Data Scientist est un peu l'évolution du Data Analyst. C'est un spécialiste de l'analyse et de l'exploitation de données au sein d'une entreprise. Son rôle est de donner du sens à ces données, afin d'en extraire de la valeur, pour permettre à l'entreprise de prendre des décisions stratégiques et/ou opérationnelles. Il fait partie des fonctions à haute responsabilité dans une entreprise.

Quels sont les tarifs d'un Data scientist

Le taux journalier moyen d'un freelance data scientist est d'environ 450 €/jour. Il peut varier en fonction des années d'expérience et de la position géographique du professionnel. Le salaire d'un data analyst débutant est de 35 K€. Le salaire du data scientist expérimenté, oscille entre 50 K€ à 60 K€.

Quelle est la définition d'un Data scientist

Le Data Scientist est un élément indispensable de l'entreprise, étant donné qu'il est chargé de l'analyse de données massives appelée Big Data. C'est lui qui gère la collecte, le stockage, l'analyse et l'exploitation de millions de données recueillies via différents canaux. Ces données servent à analyser les performances de l'entreprise, et à anticiper les comportements des consommateurs, ou les nouvelles tendances. C'est un domaine à la fois excitant et prometteur. Il génère de nouveaux challenges, et permet aux professionnels de toujours gagner en compétences. Le Data Scientist a de solides connaissances en marketing. Ce professionnel est très sollicité auprès des entreprises qui cherchent sans cesse à améliorer leurs performances et à rester compétitives. Après avoir terminé son analyse, le Data Scientist va alors rédiger un rapport où il explique ses conclusions à la direction, ou à son client.

Quel type de mission peut gérer un Data scientist

Le Data Scientist a pour principale mission de « prédire l'avenir ». La quantité importante de données que génèrent maintenant les entreprises peut se révéler très utile si elle est bien utilisée. Le scientifique des données pourra alors assurer le développement stratégique de l'entreprise, ainsi que sa transformation digitale. Pour y parvenir, il doit déchiffrer les masses de données opaques afin de leur donner un sens. Son rôle est donc de transformer des données en informations exploitables. Il pourra proposer à ses clients des solutions de pilotage IT pour répondre à des besoins spécifiques. Le fait de créer des algorithmes lui permettra d'anticiper sur les comportements et les besoins futurs, afin d'orienter des décisions importantes. C'est d'ailleurs cette forme de créativité qui le distingue du Data Analyst. Grâce à son expertise, le Data Scientist doit pouvoir présenter des propositions innovantes et pertinentes à ses clients, implémenter et déployer des modèles de machine learning, et enfin communiquer ses conclusions aux services concernés. Il peut intervenir pour des projets à court, ou à moyen terme.

Quelles sont les compétences principales d'un Data scientist

Le Data Scientist doit maîtriser de nombreux savoir-faire pour bien effectuer ses missions. Nous pouvons en mentionner quelques-uns : • Être capable d'analyse efficacement des données statistiques et les modéliser • Avoir une bonne connaissance des outils de programmation et du langage informatique • Maîtriser les techniques de visualisation des données • Posséder de fortes affinités pour le marketing • Avoir le sens des affaires et une bonne aptitude à la communication • Être rigoureux, organisé, avec une force de proposition • Pouvoir respecter la confidentialité des données • Savoir travailler en équipe, sous pression et gérer le stress • Mener une veille IT

Quel est le profil idéal pour un Data scientist

De nombreuses écoles commencent à offrir des diplômes en mathématiques et applications avec spécialité statistique, ingénierie Big Data, ou analyse des données massives. Il existe aussi d'autres formations permettant d'accéder au métier de Data Scientist, notamment en école supérieure d'informatique, de statistique, ou en école d'ingénieur. Il faudra tout de même justifier d'une expérience de 4 à 5 ans dans l'analyse de données ou dans un environnement datacenter.
46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous