Trouvez votre prochaine offre d’emploi ou de mission freelance Data science
Offre d'emploi
DATA SCIENTIST à Nantes
Prestation à Nantes. Le bénéficiaire souhaite une prestation d'accompagnement sur Nantes, dans le cadre de son programme d’accélération de l’IA. Contexte : Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Objectif de la mission : Concevoir un pipeline d'extraction, nettoyage et structuration de la connaissance textuelle issue de documents variés, en l'organisant dans un format pivot enrichi et exploitable. Activités principales : Extraction du texte depuis des fichiers PDF, Word, HTML via des librairies adaptées Nettoyage et normalisation des contenus (suppression de bruit, OCR si nécessaire) Segmentation des textes en unités de connaissance structurées (sections, blocs) Enrichissement des unités avec des métadonnées (source, date, thème, typologie) Conception du format pivot (Markdown enrichi ou JSON) standardisé Documentation le format et les choix de structuration Collaboration avec l’équipe KM pour affiner la structuration Mise en place un script ou pipeline réutilisable pour de nouveaux documents Bonne connaissance de Domino Data Lab (optionnel)

Mission freelance
Data Scientist Machine Learning / Deep Learning et IA Générative -Aix eb Provence
Data Scientist Expérience souhaitée : 3 ans minimum 2 à 3 jours sur site Compétences requises Expérience confirmée en Machine Learning / Deep Learning et IA Générative. Bonne maîtrise de Python, SQL, Pandas, Scikit-learn, Numpy, Jupyter Notebook, Streamlit. Maîtrise des frameworks : TensorFlow, PyTorch. Connaissance du cycle de vie complet des modèles IA (conception, mise en prod, suivi). Curiosité, autonomie, capacité à faire de la veille technologique. Esprit d'équipe et envie de partager vos connaissances. Missions Analyser les problématiques métiers et démontrer la valeur ajoutée d’approches ML/DL ou IA Générative. Concevoir et mettre en production des modèles d’apprentissage automatique. Traiter de grandes quantités de données pour créer des jeux d'entraînement. Appliquer les bonnes pratiques de MLOps et assurer l’explicabilité des modèles. Présenter les résultats de façon claire aux parties prenantes et suivre la performance des modèles dans le temps. Réaliser du prompt engineering pour les modèles d’IA Générative. Effectuer des benchmarks pour évaluer les modèles IA Gen. Optimiser les modèles (paramétrage, ajustements).

Offre d'emploi
Datascientist Graphs
Le bénéficiaire recherche une ressource expérimentée et autonome pour conception, développement et suivi des projets de Data Science avancée dans le cadre d’une solution Digital Twin. La mission s’inscrit dans un environnement technique exigeant, intégrant des technologies de modélisation graphique telles que TigerGraph et des approches GNN (Graph Neural Networks) pour enrichissement des capacités prédictives et analytiques des jumeaux numériques. Les missions sont: Conception, mise en œuvre, test et déploiement de modèles de Machine Learning / Deep Learning de bout en bout, adaptés aux problématiques du Digital Twin. Exploration de nouvelles architectures ML/DL, mise en œuvre de techniques d’apprentissage par transfert et optimisation des performances des modèles. Contribution aux pratiques MLOps : versioning des modèles, suivi des expériences, automatisation des pipelines de déploiement en collaboration avec les ingénieurs. Création de pipelines de données et d’ingénierie de fonctionnalités, en lien avec les exigences du jumeau numérique, en partenariat avec les ingénieurs ML. Conception et implémentation de solutions GenAI alignées avec les besoins IT, notamment autour des LLM, RAG et agents. Intégration de TigerGraph et de GNN dans les workflows analytiques pour modéliser des relations complexes et améliorer les capacités de prédiction.

Offre d'emploi
Consultant(e) Data Science Cloud GCP
Pour le compte de l’un de nos clients grands comptes, nous recherchons un(e) Consultant(e) Data Science spécialisé(e) Cloud GCP pour une mission stratégique à haute valeur ajoutée. Vous interviendrez au sein d’équipes Data sur des projets de transformation digitale, de valorisation de la donnée et d’industrialisation de modèles. Compétences techniques : Google Cloud Platform (GCP) – Maîtrise des services data (BigQuery, Dataflow, etc.) SQL – Bon niveau requis Python (atout apprécié pour les traitements de données et les modèles ML) Data Engineering / Data Science – Connaissances en modélisation et pipelines data Compétences linguistiques : Anglais courant obligatoire (oral et écrit – environnement international) Soft skills : Excellentes compétences en communication Capacité à vulgariser des problématiques techniques auprès des équipes métiers Esprit d'équipe et sens du service

Mission freelance
Data Scientist/MLops/IA
Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps

Mission freelance
Mission Machine Learning Engineer sur Bordeaux
MISSION MACHINE LEARNING ENGINEER Description : Au sein de l'équipe CT-IA rattachée au pôle IT Data, vous mettrez vos compétences au service de l'IA chez Peaksys. Vous serez notamment charge de : - Mise à dispo d'outillage d'aide aux développement IA, monitoring… , - Participer au déploiement de la démarche MLOps, - Mise en place de la plateforme IA - Automatisation des process de déploiement autour de l'IA - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Faire une veille technologique autour des architectures data et IA Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Très bon niveau en software engineering (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en python ou tout autre langage orienté objet. - Bonnes connaissances des langages Python et SQL - Bonnes connaissances en Devops (Docker, Kubernetes, helm, pipelines as code...) - BONUS connaissance du MLops Savoir-être attendu : - Sens du service et de la relation client - Pédagogie, vulgarisation - Curiosité, autonomie - Intérêt pour le domaine de la data science - Aisance relationnelle et capacité d’écoute Compétences Techniques DevOps Confirmé (2-5 ans d'expérience) Python : Confirmé (2-5 ans d'expérience) Docker / Kubernetes : Confirmé (2-5 ans d'expérience) IA : Junior ( < 2 ans d'expérience ) Azure : Junior ( < 2 ans d'expérience )
Mission freelance
Data Scientist - Paris intra muros / Finance
Mission Freelance – Data Scientist 📍 Localisation : Paris 8e 🗓 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 💼 Secteur : Finance Contexte Dans le cadre d’un programme de transformation Data au sein d’un acteur majeur de la finance, nous recherchons un Data Scientist pragmatique et opérationnel, capable de prendre en charge l’intégration et la mise à disposition de nouvelles sources de données pour alimenter différentes applications stratégiques. Vos responsabilités Assurer le sourcing et le branchement de données depuis le système SNF vers les nouvelles applications. Concevoir, développer et maintenir les flux de données (ETL, API, pipelines). Garantir la qualité, la cohérence et la disponibilité des données pour les équipes métiers et techniques. Collaborer avec les équipes internes pour définir les besoins et déployer des solutions robustes. Participer à la documentation et au transfert de connaissances.
Mission freelance
Architecte de Solutions en IA Générative
Contrainte forte du projet : Le livrable est une étude comparative des solutions technologiques pour Agents GenAI. Description détaillée : Contexte et objectifs de la mission : Dans le cadre de sa stratégie d’innovation digitale, le client souhaite accélérer le déploiement d’agents d’IA générative pour différents cas d’usage métiers. Afin d’assurer une intégration efficace, pérenne et sécurisée, il est indispensable d’identifier, d’évaluer et de préconiser les technologies socles les plus adaptées au contexte du groupe. Cette mission vise donc à réaliser une étude de choix comparant les différents outils et frameworks disponibles pour : Le développement d’agents IA avancés (framework dédié, SDK, bibliothèques, etc.). La mise à disposition de solutions low-code/no-code pour le prototypage ou le déploiement rapide d’agents simples. L’indexation, la gestion et la sécurisation des données nécessaires au fonctionnement des agents, notamment via des bases vectorielles (vector DB). L’assurance d’un environnement répondant aux exigences de sécurité (sécurité des accès, confidentialité des données, conformité réglementaire), de scalabilité (montée en charge et performance) et d’observabilité (monitoring, traçabilité, gestion des incidents). Périmètre de l’étude : L’étude doit impérativement couvrir les volets suivants : Recensement des besoins métiers et techniques auprès des équipes du client impliquées dans l’IA générative. Cartographie de l’existant et identification des contraintes d’intégration avec le SI du client. Benchmark des frameworks de développement pour agents AI (exemples : Semantic Kernel, LangChain, LlamaIndex, etc.). Comparaison des solutions low-code/no-code pour la création d’agents (exemples : Microsoft Copilot Studio, Pipedream, etc.). Analyse des solutions d’indexation de données textuelles et multimodales (notamment bases vectorielles comme Azure AI Search, Databricks, Pinecone, Weaviate, Qdrant, etc.). Étude des dispositifs existants ou à mettre en place pour la sécurité, la conformité, la scalabilité et l’observabilité des technologies retenues. Préconisations argumentées sur l’architecture cible et le schéma directeur de déploiement. Livrables attendus : Document de synthèse présentant l’état de l’art des solutions évaluées. Analyse comparative (forces/faiblesses, coûts, niveau de maturité, etc.). Proposition d’architecture cible et recommandations d’implémentation. Tableau de sélection des technologies et justification des choix proposés. Schéma de gouvernance technique et principes d’intégration. Critères de réussite : Adéquation des préconisations avec les besoins métiers du client. Respect des exigences de sécurité et de conformité du groupe. Capacité de la solution cible à évoluer et à s’intégrer dans l’écosystème SI du client. Niveau de documentation et de transférabilité des livrables. Ce descriptif de mission constitue le cadre de référence pour l’étude à mener, afin de garantir le choix de technologies innovantes, robustes et alignées avec les ambitions stratégiques du client en matière d’IA générative.

Mission freelance
Data Scientist expert Octroi de Crédit et Risque de Crédit
Contexte Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme comporte plusieurs objectifs, dont celui de proposer des fonctionnalités utilisant de l’IA afin d’améliorer des processus ou produits existants. C’est dans ce contexte que l’équipe IALAB, au sein de la Direction Data, participe à l’exploration et la création d’indicateurs permettant de mieux appréhender le comportement des entreprises et l'appréciation du risque financier. Missions Dans le cadre de l’intégration d’algorithmes IA sur nos plateformes digitales d’octroi de crédits, le profil recherché aura la responsabilité de : • Analyser et comprendre en profondeur les objectifs et les exigences du projet en se basant sur les spécifications techniques et fonctionnelles • Proposer des nouveaux indicateurs en se basant sur les données existantes (données comptables, bancaires) • Etudier et fournir les éléments de décision pour intégrer des nouvelles sources de données alternatives afin de mieux apprécier le risque de défaut d’une entreprise • Echanger d’une manière régulière avec les différentes parties prenantes du projet et être force de proposition pour les besoins des parcours digitaux et des métiers • Superviser les performances des APIs et des algorithmes déployés en assurant un suivi rigoureux et régulier • Proposer des outils et des méthodes d’analyse pour une détection rapide des anomalies et problèmes • Evaluer régulièrement les résultats et les retours du projet afin d’identifier les axes d’améliorations et les opportunités d'optimisation • Contribuer à la documentation technique et fonctionnelle relative à l’architecture, aux APIs et aux algorithmes déployés Compétences métier • Appétence pour les problématiques bancaires et compréhension des enjeux • Connaissance des processus bancaires et plus spécifiquement d’octroi de crédit • Connaissance des indicateurs clés de bonne santé financière d’une entreprise • Bonne connaissance des données liées aux entreprises et des données open data associées • Très bonne connaissance des algorithmes de machine Learning et capacité à les appliquer pour résoudre des problèmes complexes • Aptitude à comprendre les problèmes techniques et à proposer des solutions adaptées • Capacité à communiquer de manière efficace avec différentes parties prenantes et à comprendre leurs besoins fonctionnels et techniques • Compétence dans la rédaction de documentation technique et fonctionnelle de qualité • Connaissance des APIs et de l’écosystème cloud de préférence AWS • Travail en méthodologie Agile • Expérience dans l’anticipation des écueils des projets de machine learning Liste des technologies • Python • Librairies Python de machine learning • Librairies de visualisation (ex plotly) et d’applications web type Dash ou Streamlit • Git Points critiques et différenciants PO au sein de l'IA LAB sujet au tour de l'Ia, de l'IA G solutions a créer et apporter pour les métiers Métier : octroi de crédit, l'octroi digital : dev d'une plateforme digitale et en ligne : besoin pour renforcer cette équipe offre dédiée aux PMEs, gros risques profil imaginatif explorer la data, trouver des solutions Data Scientist : - academique : - maitrise de la stack technique : machine Learning, python, libraire python, cloud AWS - SAFe / Scrum à minima - spécificité : connaissance octroi de crédit, risque de défaut, savoir analyser les données financières d'une entreprise, qqun capable de prendre du recul, maitrise des enjeux, appréciation des risques - où chercher / comment chercher des solutions - souple sur l'expérience Background CV : - expé en environnement bancaire et risque de crédit
Offre d'emploi
Data Scientist F/H
Genious Systèmes recherche pour son client un(e) Data Scientist F/H Dans le cadre d’un renfort d’équipe avec des compétences de Data Scientist, il participera aux bons usages techniques et fonctionnels des données au sein d’une direction métier. Accompagner les utilisateurs lors de la mise en place de Data Prep, d’analyse de données, de KPIs, de dashboards... Accompagner techniquement et former d’autres Data Scientists ainsi que des Data Analysts, Valider la mise en place des bonnes pratiques. Assurer le suivi des performances et participera aux phases d’optimisation. Participation à l’homogénéisation et l’industrialisation des phases de Data Prep. Maîtrise Python Spark sur un environnement Cloud ainsi que le dashboarding et la Data Viz (Looker, Kibana, Grafana). L’environnement technique sera principalement constitué de : Databricks Looker Prometheus Tempo Grafana Elastic Kibana

Offre d'emploi
Data Scientist (FH)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Data Scientist pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir dès le 15 septembre 2025 jusqu’au 31 décembre 2025 , et est situé à Paris . Ce poste est ouvert dans le cadre d’un contrat CDD ou Freelance. Contexte Dans le cadre du renforcement de ses capacités d’analyse et de restitution des résultats de stress tests au sein de STFS (Stress Testing & Financial Simulations), notre client recherche un profil data scientist spécialisé en Data Visualisation, avec une expertise confirmée sur Power BI, et codage Python. Les entités Finance Groupe, RISK et ALM Treasury ont mis en place une équipe commune en charge du stress testing, de la planification financière et de la synthèse pour le Groupe. Cette équipe, nommée STFS (Stress Testing and Financial Simulations), a pour objectif de coordonner le renforcement des capacités de stress testing (S/T) et de planification, afin de mieux répondre aux besoins des Métiers, des Entités Juridiques et du Groupe, tout en satisfaisant aux exigences des superviseurs dans ces domaines, et ce de manière efficiente. A cet effet, STFS a construit une plateforme centralisée, flexible et industrialisée, accessible aux Métiers et Entités (B/E) du groupe pour répondre à leurs besoins locaux et contribuer aux exercices Groupe. STFS propose un service intégré de stress testing aux B/E pour les aider à tirer parti du cadre commun pour leurs besoins spécifiques. STFS est également responsable de l’exécution de tous les exercices de stress testing à l’échelle du Groupe, qu’ils soient réglementaires ou internes. Prestations demandées : Objectifs mission : · Définir le design de nouveaux dashboards de Stress Tests en collectant les besoins des différentes équipes STFS et en considérant différents objectifs tels que contrôle, analyse, validation et insertion opérationnelle auprès des entités · Concevoir et automatiser ces nouveaux dashboards dans Power BI · Faciliter l’appropriation des outils par les équipes STFS via une implémentation claire et modulaire Compétences attendus : · Minimum 12 ans d’expérience, secteur bancaire privilégié · Maîtrise avancée de Power BI · Expérience significative dans la construction de dashboards financiers complexes · Connaissance des enjeux réglementaires (risque de crédit, CRR3) et stress tests bancaires · Capacité à collaborer avec des équipes pluridisciplinaires (modélisation, finance, risques) · Autonomie, rigueur, sens de la synthèse · Pack office : PPT, EXCEL (maitrise) · Des dashboards dynamiques (Power BI) répondant aux besoins identifiés en amont par les différents consommateurs, automatisés, modulaires et documentés · Un guide d’utilisation et de maintenance · Des supports de restitution pour les parties prenantes

Offre d'emploi
Business Analyst technique (RAG / IA Générative)
Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'une entité asset IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. Description : Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) Pilotage de la performance, notamment économique du SI Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement Gestion du budget d'informatisation de son domaine Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) Consolidation des écarts en termes de délais, de coûts ou de qualité Capitalisation de l’ensemble des connaissances sur le système d’information du métier Mise en oeuvre de la qualité de la conduite de projet Gestion de la cartographie des compétences nécessaires à l’évolution du SI

Mission freelance
Consultant Data Science
En quelques mots Cherry Pick est à la recherche d'un "Consultant Data Science - 21/07" pour un client dans le secteur de XXX Description 🔎 Contexte Au sein de la direction Gaz, le consultant interviendra sur plusieurs projets d’innovation data ayant pour objectif d’améliorer : L’efficacité opérationnelle, La connaissance client, Et la performance des processus de facturation et de communication. 🎯 Objectifs & Livrables Exemples de cas d’usage : Optimisation des mensualisations Prédiction du volume d’opérations de facturation Segmentation des courbes de consommation clients (B2C) Modélisation des meilleurs moments d’interaction client Livrables attendus : Analyses exploratoires (facturation, contrats, consommation…) Développement de modèles ML (prévision, clustering, recommandation) Scripts industrialisables en Python / SQL Dashboards (Power BI, Tableau) Documentation technique & fonctionnelle Présentations claires aux parties prenantes métiers 🧠 Compétences recherchées CompétenceNiveau requisPython (pandas, scikit-learn)ConfirméSQLConfirméMachine LearningConfirméDataViz (Power BI ou Tableau)ConfirméCloud (Azure ou GCP)AppréciéModélisation prédictive / segmentationConfirméContexte B2C ou énergieApprécié 🎓 Profil Bac+5 en data science, statistiques, mathématiques appliquées 2 à 5 ans d'expérience Bon communicant, capable de vulgariser ses analyses Esprit d'équipe, autonomie et sens de l’innovation 💡 Environnement de mission Équipe innovation rattachée aux projets data stratégiques Données issues de systèmes métiers complexes (CRM, contrats, facturation…) Interactions fréquentes avec les métiers, IT et autres pôles data
Offre d'emploi
Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée - 12 mois - Lille
Data Scientist - Lille - 12 mois Un de nos importants clients recherche un Data Scientist pour une mission de 12 mois sur Lille. Descriptif ci-dessous: 🚀 Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée 📍 Localisation : Lille (flexible avec un présentiel de 3 jrs par semaine sur site) 📅 Démarrage : ASAP 💼 Type de contrat : Mission longue / Freelance ou CDI/CDD selon profil Créez des solutions IA de nouvelle génération pour transformer l’entreprise Vous êtes passionné(e) par l’intelligence artificielle, les architectures LLM (Large Language Models) et le développement de solutions scalables à fort impact ? Nous recherchons un(e) Senior Data Scientist / Software Engineer pour rejoindre notre équipe technique et participer à la conception de solutions IA robustes, innovantes et alignées sur nos enjeux stratégiques. 🔍 Votre mission Intégré(e) au cœur d’une équipe tech agile et ambitieuse, vous piloterez de bout en bout la création d’applications IA modernes basées sur les dernières avancées en deep learning et en engineering LLM. Vos responsabilités principales : 🧠 Conception & Développement de solutions IA Développer des applications IA avancées avec Python, Keras, TensorFlow, LangGraph, LangChain et ZenML Concevoir des infrastructures scalables et performantes, répondant aux normes de documentation et qualité de code 🧩 Pilotage autonome de projets IA Gérer de façon indépendante le cycle complet des projets : design, développement, mise en production Collaborer avec les équipes métier pour s’assurer que les solutions créées répondent à leurs besoins réels 🎯 Expertise et accompagnement Traduire les problématiques métier en solutions IA pertinentes Accompagner les utilisateurs internes dans l’adoption, la compréhension et l’utilisation des outils développés 🛠️ Compétences requises ✅ Python (niveau expert) – Indispensable ✅ Keras / TensorFlow – Expertise avérée ✅ LangChain et LangGraph – Maîtrise avancée requise ✅ ZenML – Compétence confirmée attendue ✅ Documentation technique rigoureuse et respect des standards de développement ✅ Français courant et anglais professionnel (environnement bilingue) 👤 Profil idéal Vous justifiez d’une solide expérience dans la création de solutions IA et de pipelines ML/LLM complexes Vous êtes autonome, proactif(ve), rigoureux(se) et orienté(e) business Vous êtes capable d’articuler des concepts techniques complexes à des interlocuteurs non techniques Vous avez une approche produit et une culture du delivery dans des environnements agiles 🚧 Ce que vous livrerez Des applications IA prêtes à l’emploi, robustes et documentées Une infrastructure data/ML scalable intégrée dans l’environnement technique de l’entreprise Une documentation claire respectant les standards internes Une valeur métier mesurable via l’adoption réussie des solutions déployées ✨ Pourquoi nous rejoindre ? Travailler sur des technos de pointe en IA appliquée (LLM, framework LangChain/Graph, ZenML…) Être acteur d’une transformation tech ambitieuse avec de forts enjeux business Évoluer dans un environnement agile, collaboratif et stimulant Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Offre d'emploi
Data Scientist Senior (H/F)
Nous recherchons un Data Scientist senior pour intervenir sur le développement du cœur de calcul d’une plateforme stratégique dans le secteur des réseaux énergétiques intelligents. La mission s’inscrit dans un contexte à forts enjeux : réduction des émissions carbone , déploiement des énergies renouvelables et digitalisation à grande échelle . Vous serez amené(e) à collaborer étroitement avec des Product Owners, chefs de projets, experts data et SI , dans une organisation agile. Responsabilités Développement de modèles statistiques et algorithmes sur données temps réel / séries temporelles. Modélisation mathématique et optimisation (linéaire, non linéaire, heuristique). Mise en œuvre de prototypes et industrialisation des algorithmes. Restitution claire des résultats aux parties prenantes métier. Application de bonnes pratiques de code et structuration robuste des modules Python.

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Data science
Data scientist
Le / La data scientist analyse et modélise de grandes quantités de données en utilisant des outils avancés comme le machine learning pour extraire des informations exploitables et guider les décisions stratégiques.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le / La data analyst transforme les données brutes en rapports clairs et exploitables en utilisant des outils de visualisation et d'analyse statistique, souvent en collaboration avec des équipes de data science.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le / La développeur·euse IA / Machine Learning conçoit et implémente des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problématiques complexes liées aux données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresDirecteur·rice / Responsable de la data (Chief Data Officer)
Le / La responsable de la data supervise les stratégies de gestion et d’analyse des données, en utilisant des approches de data science pour maximiser la valeur des données dans l’entreprise.
Explorez les offres d'emploi ou de mission freelance pour Directeur·rice / Responsable de la data (Chief Data Officer) .
Découvrir les offres