Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Lead Devops / Charge de Mission
Lead DevOps / Chargé de Mission Dans le cadre du renforcement de ses équipes de Production, un groupe leader dans le secteur financier recherche un profil fonctionnel IT pour intervenir sur un périmètre à double composante : • Infrastructure : Réseau, Télécom, Sécurité, Data, Cloud, Serveurs • Applicatif / Métier : Banque de détail, Banque d'investissement, Assurance, Fonctions support… Vous intégrerez une équipe dynamique et innovante, au cœur de projets stratégiques pilotés par la data et l'intelligence artificielle, avec une approche résolument agile. Description du poste Intervention aussi facilement dans les contextes métiers et DEV en vous appuyant sur les meilleurs standards méthodologiques (@Scale, Scrum, Design Thinking…) dans la gestion agile de la factualisation des Mode de défaillances (module Master T MAP). Organisation de la gouvernance appropriée, instauration d'un climat de confiance et obtiendrez une co-construction dans un modèle de transparence et de partage des informations entre les équipes métiers et l'équipe de contrôle. Missions principales • Mise en place et animation de la gouvernance du plan de transformation (cérémonies, ateliers, réunions formelles avec les sponsors) • Capacité de réaliser rapidement une évaluation des niveaux de maturité sur un échantillon donné et d'être contributeur auprès de l'équipe Problème Management • Définition du plan de transformation à grande échelle d'un ensemble de chantiers (process, outils, accompagnement au changement) • Élaboration des contrôles pour prévenir les ré-occurrences, en mode YOKOTEN • Définition des indicateurs de performance et de supervision des Master T MAP • Capacité d'adaptation à l'auditoire (management, opérationnel) • Capacité à travailler en équipe Agile • Capacité à travailler dans un environnement complexe

Mission freelance
Data Management & AI Lead
CONTEXTE Experience: 8 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expertise Spécialités technologiques : Gestion des données, Monitoring, AI,Data management Reporting MISSIONS Piloter la stratégie de gestion des données non structurées (UD) et l’adoption de l’IA au sein des différents métiers. Concevoir et mettre en œuvre le cadre méthodologique, industrialiser les outils associés, accompagner leur adoption par les utilisateurs, et assurer un suivi opérationnel continu pour garantir l’efficacité et la cohérence des pratiques. Responsabilités principales - Analyser les processus métiers et cas d’usage IA afin de proposer un plan de gestion des données non structurées. - Déployer le cadre UD dans plusieurs domaines métier et en assurer l’industrialisation. - Promouvoir et faciliter l’adoption des outils et pratiques auprès des utilisateurs. - Assurer le suivi opérationnel : monitoring, reporting et support aux utilisateurs. - Collaborer avec les équipes métiers et techniques pour garantir cohérence et efficacité. Expertise souhaitée Compétences et expertise attendues - Maîtrise des référentiels de gestion des données (DMBOK – DAMA). - Expérience en gouvernance de données, gestion des métadonnées et de la qualité, architecture & modélisation. - Expertise pratique sur le traitement des données non structurées (OCR, NLP, VLM, Vector Databases). - Compétences en data visualization (PowerBI) et gestion d’ontologies de métadonnées. - Compréhension des usages GenAI (prompting, grounding). - Maîtrise des outils d’automatisation et scripting (Python, Bash). - Connaissance des plateformes de gestion des données et des outils collaboratifs (Git, Jira). - Anglais courant obligatoire.
Mission freelance
SAP data migration Domain lead
Hanson Regan recherche un responsable de domaine de migration de données SAP pour une mission freelance de 9 mois, basé à Paris. Responsabilités : Responsable du domaine de migration de données SAP pour une implémentation SAP S4H greenfield de bout en bout. Le poste concerne la migration de données. Planifier, coordonner et suivre l'avancement du flux de migration de données pour une implémentation S4 greenfield. Le poste comprend le suivi des extractions, des transformations et des chargements avec plusieurs équipes (technique, fonctionnelle et métier). Le suivi de la conception et de la mise en œuvre des programmes de migration est assuré, ainsi que la production de rapports d'avancement. Le poste comprend également la définition d'une stratégie de migration de données en cohérence avec les autres flux, la planification des simulations, le suivi et le reporting de leur exécution. Compétences : Accès aux données, Processus données et IA, Stratégie données et IA, Principes d'architecture des données, Taxonomie des données Langue : Anglais Localisation / Remote : Paris, 2 jours par semaine en Remote En raison des exigences du client, les freelances doivent pouvoir travailler via leur propre société française (SASU, EURL, etc.), car nous ne pouvons malheureusement pas accepter les solutions de portage pour cette mission. Si ce poste vous intéresse, n'hésitez pas à nous contacter dès que possible en nous fournissant un CV à jour aux coordonnées ci-dessous.

Mission freelance
Product Owner IA / Data
Contexte de la mission Dans le cadre du programme d’accélération de l’Intelligence Artificielle, nous recherche un Product Owner expérimenté afin d’accompagner la Direction Informatique dans la mise en place et le pilotage de produits et services IA. La mission s’inscrit dans un environnement agile à grande échelle et international, avec une forte interaction entre équipes métiers, équipes data/IA et parties prenantes techniques. Le consultant sera en charge des activités suivantes : Définir la stratégie produit sur son périmètre, en lien avec la vision globale de l’entreprise. Identifier, prioriser et gérer les backlogs des différents axes stratégiques. Garantir la mise en œuvre des méthodes de discovery et le suivi du delivery . Coordonner et collaborer avec les équipes de développement, data scientists, ingénieurs IA, métiers et partenaires externes. Définir et suivre les KPIs liés aux produits IA, analyser les résultats et proposer des axes d’amélioration. Participer à la définition des stratégies de gestion et de sécurisation des données. Accompagner la mise en main des produits (documentation, formation, support en conditions opérationnelles).

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Mission freelance
Product Owner IA
Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Offre d'emploi
ingénieur data / ML -Sénior - (H/F) - Lyon
Contexte Dans le cadre de son programme stratégique autour de la Data et de l’Intelligence Artificielle, un acteur majeur du secteur Banque & Assurance renforce son équipe centrale de Data Science. Après une première phase de conception et de déploiement de solutions critiques en IA Générative, l’organisation entre dans une étape clé d’ industrialisation, de stabilisation et de montée en échelle . Les projets, fortement visibles au niveau exécutif, nécessitent un pilotage rigoureux par KPIs fiables et orientés business , ainsi qu’une attention particulière à la robustesse et à la pérennité des solutions en production. Mission L’ingénieur Data / ML Senior interviendra sur : La définition, formalisation et mise en œuvre de KPIs pour le suivi des solutions GenAI (qualité, performance, volumétrie, impact métier). L’ industrialisation des projets IA Générative, avec un focus sur le pilotage par indicateurs. Le support opérationnel et la garantie de la stabilité, scalabilité et observabilité des pipelines en production. L’amélioration de la qualité, testabilité et documentation des pipelines de données. Le mentorat et l’accompagnement des profils juniors pour instaurer de bonnes pratiques. La contribution technique sur d’autres initiatives stratégiques de la roadmap (fraude, expérience client, pipelines data).

Mission freelance
Data Scientist - Azure AI (h/f)
Vous êtes un Data Scientist expérimenté avec de solides compétences en Azure AI et Python ? emagine a une opportunité pour vous de soutenir les initiatives d'IA de l'entreprise dans les domaines de la finance, de la communication et du marketing au sein d'une équipe internationale. Are you an experienced Data Scientist with strong Azure AI and Python skills? emagine has an opportunity for you to support corporate AI initiatives across finance, communication, and marketing domains with a global team. Skills & Expertise: Data Science: Experience in designing and evaluating AI models for corporate use cases. Azure AI: Hands-on experience and or certification with Azure AI services such as Azure Machine Learning, Cognitive Services, and Azure OpenAI. Python Programming (Confirmed): Strong proficiency in Python for data manipulation. AI Engineering: Experience in end-to-end AI solution development—from data ingestion to model deployment and monitoring. Generative AI: Practical knowledge of generative models (e.g., GPT, diffusion models) and their application in content creation, summarization, and automation. Finance Knowledge: Understanding of financial principles and data structures, enabling effective collaboration on finance-related AI projects. Communication Skills: Comfortable engaging with stakeholders across departments. Able to translate technical concepts into business language. English Language: Fully fluent in spoken and written English, experienced working and collaborating in a global environment. Key tasks and deliverables: Develop and implement AI solutions for corporate projects in finance, communication, and marketing. Apply predictive algorithms and generative AI techniques to solve business challenges. Leverage Azure AI tools and services to enhance project outcomes. Collaborate with cross-functional teams and stakeholders to ensure project success. Deliver insights and recommendations based on data science and AI models. Apply with your latest CV or reach out to Brendan to find out more.

Mission freelance
Data Scientist GenAI - GCP (h/f)
Emagine recherche pour l’un de ses clients grand compte un data scientist GenAI - GCP. Durée : >12 mois Lieu : 95 Télétravail : 3 jours par semaine. Démarrage : ASAP Résumé Rôle de Data Scientist pour soutenir l’activité et l'adoption de l'IA générative (GenAI). Responsabilités : Concevoir et implémenter des agents d'IA sur GCP/Vertex AI. Industrialiser les composants via des pipelines MLOps robustes. Assurer l'interprétabilité et la fiabilité des prévisions. Communiquer avec les équipes métier par le biais de présentations et de rapports. Must Haves : Formation Bac+5 en Data Science, Statistiques, Mathématiques ou équivalent. Expertise en GenAI. Expérience solide en Python et bibliothèques ML (scikit-learn, TensorFlow, etc.). Expertise en GCP (BigQuery, Cloud Functions) et Vertex AI. Très bonnes compétences en MLOps (CI/CD, versioning, monitoring). Connaissance de fastapi, Langchain, streamlit. Anglais courant impératif. Nice to Haves : Connaissance approfondie des méthodologies d'apprentissage automatique. Expérience dans la mise en œuvre de solutions d'IA dans des environnements de production. Certifications en Data Science ou en IA. Other Details : Contexte : Adoption de l'IA générative au sein de l'entreprise. Lieu : Remote ou sur site selon les besoins. Équipe : Collaborer avec les équipes interfonctionnelles dans un environnement agile.

Offre d'emploi
Ingénieur Devops / Data analyst / DevOps
Offre d'emploi : Ingénieur DevOps / Data Analyst / DevOpsContexte Dans le cadre du renforcement de ses équipes de Production, un groupe leader recherche un profil technico-fonctionnel IT pour intervenir sur un périmètre à double composante : Infrastructure : Réseau, Télécom, Sécurité, Data, Cloud, Serveurs Applicatif / Métier : Banque de détail, Banque d'investissement, Assurance, Fonctions support… Vous intégrerez une équipe dynamique et innovante, au cœur de projets stratégiques pilotés par la data et l'intelligence artificielle, avec une approche résolument agile. Mission Principale Guider et recommander dans l'exploitation et la valorisation des multiples modules du produit, et identifier des leviers d'optimisation et d'amélioration basés sur la data avec le(s) Product Owner(s). Responsabilités Gérer la résolution des incidents en relation avec le PO et les équipes techniques (Réseaux, Sécurité, flux...). Être responsable du cycle de vie des incidents jusqu'au rétablissement du service ainsi que les performances de l'environnement. Communiquer vers le(s) PO(s) et la hiérarchie. Garantir l'exécution des changements (suivi, reporting, communication). Intervenir en support des équipes de développement. Gérer les différents environnements et leurs changements de versions. Compétences Requises Capacité à travailler en équipe Agile Capacité à travailler dans un environnement complexe Profil Recherché Expérience confirmée en gestion d'incidents, support et résolution d'anomalies sur des produits IT complexes Connaissance des différentes composantes dans le cadre d'intégration d'applications ou produits Esprit analytique, sens de l'initiative, autonomie et orientation résultats Excellentes capacités de communication et de travail en équipe Anglais courant indispensable (écrit et oral) Maîtrise des outils bureautiques (suite O365), des outils ITSM (Service Now) et de dashboarding Connaissance des métiers de la production IT et des processus ITIL appréciée Bac +4/5 : Minimum 15 ans d'expérience

Mission freelance
PMO / Coordination Projets Data & IA – Pilotage Budgétaire et Reporting IT
Nous recherchons un(e) PMO expérimenté(e) pour assurer le suivi opérationnel des projets et budgets d’une Direction Data & Intelligence Artificielle. Vos missions : Piloter le suivi budgétaire et coordonner les instances financières des projets IT. Assurer le suivi des projets Data & IA : relance des équipes, suivi des KPIs, mise à jour des tableaux de bord et reporting. Organiser et animer les rituels et séminaires pour favoriser la collaboration des équipes. Participer à des projets transverses et à la veille technologique liée à la Data & IA.

Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Mission freelance
Chef de projet Data/Lead data scientist
Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.

Offre d'emploi
Business Analyst Data
Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Offre d'emploi
Business Analyst Technique (RAG / IA Générative) H/F
Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client. Important : des compétences confirmées en data science liée à la RAG sont attendues. Compétences : • Une expérience confirmée en tant que Business Analyst est impérative. • La maitrise confirmée de l'IA générative et de la RAG est impératif. • Des expériences en data science sont nécessaires. • Capacité à rédiger des documents et synthétiser l'information. • Capacité à trouver des solutions aux problèmes que les métiers peuvent rencontrer. • Capacité à piloter une phase de test et valider que le produit qui permettra de servir les cas d'usages métiers. Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste. Niveau du consultant attendu : Diplômé Bac+5 d’une école d’ingénieur ou équivalent.
Mission freelance
LEAD DATA SCIENTIST AI
Nous recherchons un expert de haut niveau en Data Science et NLP/GenAI pour piloter un programme stratégique autour de l’ automatisation intelligente de la gestion d’emails (13M+/an) . L’objectif : concevoir un système agentique innovant intégrant priorisation, génération de réponses, résumé automatique et conformité réglementaire , tout en réduisant de plus de 60% les tâches manuelles. 🎯 Vos missions principales Leadership technique (40%) : concevoir l’architecture agentique, définir la roadmap, les métriques d’évaluation, assurer la scalabilité et l’intégration (MCP, A2A/ACP). Développement (30%) : prototypage d’agents, ingénierie de contexte LLM, pipelines de données synthétiques, déploiement en production. Business alignment (20%) : traduire les besoins opérationnels, élaborer des règles de priorisation, travailler avec les équipes conformité, définir les KPIs. Recherche & veille (10%) : explorer les nouvelles avancées en agentic AI, expérimenter et accompagner l’équipe. 🛠️ Tech Stack & environnement CrewAI , Python, SQL, APIs MCP / A2A / ACP integration GenAI, NLP avancé, MLOps Objectif : réduction >60% des tâches manuelles ✅ Profil recherché PhD ou équivalent 10+ ans en Data Science, dont 5+ en NLP/GenAI Expérience CrewAI & déploiement IA en production Solides compétences Python, SQL, APIs Expérience secteur financier & publications/patents appréciés Anglais courant (français apprécié) 💡 Pourquoi nous rejoindre ? Programme IA à fort impact stratégique Stack technologique de pointe Opportunités de recherche et publications Forte visibilité auprès du management Package attractif & télétravail hybride ANGLAIS OBLIGATOIRE
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.