L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 274 résultats.
Mission freelance
Un Tech Lead Data sur Grenoble
Publiée le
DevOps
Git
Jenkins
6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Mission freelance
Data Platform Enablement Engineer
Publiée le
AWS Cloud
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
Développeur IA GEN PYTHON JAVA - Expérimenté - Nantes
Publiée le
Numpy
Pandas
PySpark
3 ans
400 €
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre d’un programme Innovation & IA Générative , nous recherchons un Développeur expérimenté capable d’intervenir sur des sujets mêlant développement backend, data science et industrialisation . Missions principales Conception et développement de solutions IA / IA Générative Développement et intégration technique en Java & Python Mise en place des tests : TU / intégration / recette Déploiement et suivi en environnement production Travail en équipe sur des projets innovants et à forte valeur ajoutée Compétences attendues Python avancé (Back-end & Data Science) Framework : TensorFlow Libraries : scikit-learn, pandas, NumPy, PySpark, PyKrige Environnements & data Bases : MySQL / NoSQL Conteneurisation / orchestration : Kubernetes Profil recherché Curieux, motivé, impliqué sur des sujets innovants Très bon esprit d’équipe et capacité à s’intégrer dans un collectif Autonome et orienté qualité (tests / intégration / production) 📍 Localisation : Nantes 🎯 Senior / Expérimenté – Python & Java
Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer
Publiée le
Java
6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Mission freelance
AI-Native Software Engineer
Publiée le
AWS Cloud
IA Générative
Python
36 mois
540-550 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un AI-Native Software Engineer. Missions: Positionner comme un coach des équipes tech en place en apportant une expertise en GenAI Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Collaborer étroitement avec les équipes produit, design et architecture Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production. Profil • 7 ans d’expérience en développement Fullstack • Excellente maîtrise de Java/Spring Boot et de framework Front moderne (React) • Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes) • Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, Terraform) • Esprit pragmatique, orienté delivery rapide et clean code • Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude, Code, LLM, Framework IA) pour identifier les véritables opportunités d’amélioration. Passionné par les sujets d’IA (traditionnelle et générative) et veille continue sur le sujet • Excellente communication (écrite et orale) et capacité à travailler en équipe. • Pédagogie et capacité à convaincre. • Autonomie et proactivité : capacité à travailler sur plusieurs projets en même temps
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
AI Engineer H/F
Publiée le
Azure
Azure AI
C#
6 mois
Paris, France
Télétravail partiel
🔧 Project Description AI Engineer – Assistant IA métier Le consultant interviendra au sein de l’équipe Produit, en collaboration étroite avec : les équipes Plateformes (DevSecOps, Data Platform, AI Platform), l’équipe Produit (CRM), les équipes métiers. La mission couvre plusieurs axes structurants : refonte de l’architecture afin de permettre un découplage et une abstraction de l’accès aux données ; intégration de nouveaux parcours utilisateurs sur des canaux mobiles et des applications métiers existantes (CRM, Outlook, Teams) ; connexion à de nouvelles sources de données (Outlook, SharePoint, applications métiers) ; extension géographique (Monaco, Luxembourg) et extension métier (Corporate, Asset Management) ; convergence avec Copilot et renforcement des parcours pre-meeting / post-meeting ; mise en place d’un monitoring avancé. 🎯 Mission Objective & Livrables Objectifs de la mission : Industrialiser l’assistant IA. Garantir la scalabilité, la performance, la sécurité et la conformité réglementaire des solutions IA. Étendre les usages, les périmètres métiers et géographiques du produit. 👤 Responsabilités Conception & mise en œuvre IA Participer à la définition des architectures IA en s’appuyant sur Copilot Studio, AI Foundry et Semantic Kernel, en garantissant performance, sécurité et conformité réglementaire. Concevoir, développer et mettre en œuvre des agents IA (copilotes, assistants métier, agents autonomes) répondant aux besoins des équipes produit et métiers. 2) Cadrage des cas d’usage & collaboration sécurité/produit Collaborer avec les équipes produit, architectes et experts sécurité pour cadrer les cas d’usage, affiner les prompts, orchestrer les workflows et fiabiliser les réponses IA. 3) Intégration SI & interopérabilité Intégrer les agents IA au système d’information existant, notamment via Dataverse, Dynamics 365 CE, Power Platform, API Management (APIM) et MCP Server. 4) Exploitation, monitoring & amélioration continue Mettre en place le monitoring des solutions en production. Contribuer à l’amélioration continue des agents (qualité des réponses, performance et coûts). Prendre en charge les anomalies et évolutions mineures pendant les phases de recette et de production. Proposer des optimisations de coûts liées à l’usage des solutions IA. 5) Capitalisation & montée en compétences Contribuer à la documentation technique, au partage de bonnes pratiques et à la montée en compétences des équipes internes sur les usages IA. 6) Gouvernance projet & mode de delivery (Agile) Participer aux cérémonies agiles Scrum. Reporter aux Product Owners sur l’avancement des travaux. Alerter l’équipe en cas de difficultés rencontrées ou de risques de retard. 7) Veille & innovation (écosystème Microsoft) Assurer une veille sur les évolutions de l’écosystème Microsoft et identifier les apports potentiels dans le contexte du projet.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Offre d'emploi
Chef de projet IA
Publiée le
Gestion de projet
3 ans
40k-80k €
400-550 €
Île-de-France, France
💼 Contexte Dans le cadre du développement de solutions innovantes basées sur l’ Intelligence Artificielle , et notamment l’ IA générative , nous recherchons un Business Analyst IA pour accompagner la conception, le cadrage et le déploiement de cas d’usage à forte valeur ajoutée. Vous interviendrez à l’interface entre les équipes métiers, data, IA et IT afin de transformer les besoins business en solutions IA concrètes, performantes et responsables. 🎯 Missions principales Identifier, analyser et prioriser les cas d’usage IA / IA générative (chatbots, assistants métiers, moteurs de recherche augmentés, automatisation intelligente, etc.) Recueillir et formaliser les besoins métiers (workshops, interviews, benchmarks) Rédiger les spécifications fonctionnelles, user stories et critères d’acceptation Participer au cadrage des solutions IA (LLM, RAG, modèles propriétaires ou open source) Collaborer avec les équipes Data Scientists, ML Engineers et développeurs Contribuer à la définition des parcours utilisateurs et à l’expérience IA Participer aux phases de tests fonctionnels, d’évaluation des modèles et d’UAT Suivre la performance des solutions (qualité des réponses, ROI, adoption) Veiller aux enjeux de conformité, d’éthique, de sécurité et de protection des données
Mission freelance
Consultant IA
Publiée le
LangChain
RAG
12 mois
650-810 €
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de ses outils d’aide à la décision financière, le client souhaite concevoir et déployer une plateforme SaaS basée sur des agents IA spécialisés , capable de répondre de manière fiable, contextualisée et experte aux problématiques financières. L’objectif est de permettre à des profils financiers (contrôle de gestion, finance d’entreprise, audit, risk, M&A, etc.) de brancher leurs propres données (structurées et non structurées) et d’interagir avec des agents IA experts du domaine financier , capables de raisonner, dialoguer entre eux (Agent-to-Agent) et produire des réponses exploitables métier. 2. Périmètre de la mission Le consultant interviendra sur l’ensemble du cycle de conception et de mise en œuvre de la solution : Conception & Architecture Définition de l’architecture globale d’une plateforme IA orientée agents (multi-agents, Agent-to-Agent). Conception d’agents spécialisés par domaine financier (ex. : reporting financier, analyse de performance, risques, cash management, consolidation, etc.). Mise en place d’une architecture SaaS sécurisée , scalable et multi-clients. IA & Data Intégration de modèles de langage (LLM) et d’agents conversationnels spécialisés. Mise en œuvre de mécanismes de RAG (Retrieval Augmented Generation) sur données financières. Gestion de l’ingestion de données (CSV, Excel, bases SQL, APIs, documents financiers). Garantir la traçabilité, l’explicabilité et la fiabilité des réponses produites. Agent-to-Agent Conception de scénarios de collaboration entre agents (ex. : un agent analyse, un autre valide, un autre synthétise). Orchestration des échanges entre agents selon les cas d’usage métier. Mise en place de règles de contrôle, de priorisation et de validation. Sécurité & Conformité Gestion des droits d’accès aux données. Séparation stricte des environnements et des données clients. Prise en compte des enjeux de conformité (RGPD, confidentialité financière). Livraison Développement de POC puis MVP. Contribution à la roadmap produit. Documentation technique et fonctionnelle. Transfert de compétences aux équipes internes. 3. Livrables attendus Architecture cible de la solution (technique et fonctionnelle). Modèles d’agents IA spécialisés Finance. POC opérationnel puis MVP. Documentation (architecture, agents, flux de données). Recommandations pour l’industrialisation et le passage à l’échelle. Plan de sécurité et de gouvernance des données. 4. Profil recherchéCompétences clés (obligatoires) Expertise confirmée en IA générative et systèmes multi-agents . Expérience concrète dans la conception d’agents IA spécialisés . Solide compréhension des enjeux financiers (finance d’entreprise, contrôle de gestion, reporting, risk, audit…). Maîtrise des approches RAG , prompt engineering avancé et orchestration d’agents. Capacité à concevoir une solution SaaS orientée produit. Compétences techniques attendues Langages : Python (obligatoire). Frameworks IA / agents (LangChain, LlamaIndex, AutoGen ou équivalent). APIs, micro-services, architecture cloud. Bases de données SQL / NoSQL. Cloud public (AWS, Azure ou GCP). Bonnes pratiques DevOps (CI/CD). Compétences complémentaires appréciées Expérience en fintech, banque, assurance ou cabinet de conseil financier . Connaissance des problématiques de data finance et de qualité des données. Expérience en POC, MVP et produits IA innovants. 5. Expérience & formation Minimum 5 ans d’expérience en IA / data / ingénierie logicielle. Expérience significative sur des projets IA appliquée à des cas métiers complexes . Formation supérieure (Bac+5) en informatique, data science, ingénierie ou équivalent.
Offre d'emploi
PO Senior IA – Lutte anti-blanchiment (LCB-FT)
Publiée le
Product management
24 mois
60k-65k €
580-620 €
Paris, France
Télétravail partiel
📌 INFORMATIONS PRATIQUES : 📆 Durée : 24 mois, reconductible 🚀 Date de démarrage : 19/01/2026 📄 Type de contrat : CDI ou freelance 🏠 Télétravail : 2 à 3 jours / semaine 📍 Localisation : 75 💶 Budget : 580-620 €/jour max (selon profil) 🧩 CONTEXTE : Vous rejoindrez une équipe Data & Sécurité Financière d’un grand groupe financier français, en charge d’un programme stratégique de lutte contre le blanchiment d’argent et la fraude. À partir de 2026, ce programme pluriannuel vise à concevoir, tester et industrialiser plusieurs briques d’intelligence artificielle critiques, avec un très fort niveau d’exigence réglementaire et opérationnelle. En tant que PO IA senior, vous serez le référent produit sur plusieurs solutions clés, à l’interface des équipes data, IT, architecture et métiers sécurité financière. 🛠️ MISSIONS PRINCIPALES : - Piloter et sécuriser le développement de plusieurs briques IA stratégiques dédiées à la lutte contre le blanchiment et la fraude - Définir la vision produit, la roadmap IA et les priorités en lien avec les enjeux métier et réglementaires - Organiser et animer les phases de POC, MVP puis d’industrialisation, en garantissant la cohérence d’ensemble - Gérer le backlog produit : user stories, critères d’acceptation, priorisation, arbitrages fonctionnels et techniques - Assurer le passage des POC en solutions industrielles robustes, auditées et maintenables - Défendre les choix produit et IA face aux contraintes SI, de conformité et d’organisation - Préparer et porter les sujets en comités projet et instances de gouvernance 📊 PRINCIPAUX CHANTIERS PRODUIT IA : - Moteur d’alerte LCB – Backtesting : suivre le développement d’un moteur d’alerte fraude / blanchiment de nouvelle génération, définir et piloter les dispositifs de backtesting, garantir l’alignement du moteur avec les objectifs métier et la maîtrise des dérives modèles - Prédiction et hiérarchisation du risque LCB : piloter une brique IA de prévision et de scoring du risque, définir les KPI métier et techniques, travailler en proximité avec les data scientists pour garantir l’exploitabilité opérationnelle - Agents conversationnels pour le traitement des alertes : cadrer et piloter des agents IA basés sur des LLM pour assister les analystes dans le traitement des alertes, améliorer la productivité tout en renforçant l’explicabilité, la justification et la notion de preuve - Visualisation et investigation via bases graphes : mettre en œuvre des solutions de visualisation graphe et d’analyse de réseaux pour l’investigation, exploiter des graph databases pour détecter des schémas complexes, adapter les outils aux usages des analystes LCB-FT 💻 ENVIRONNEMENT FONCTIONNEL / PRODUIT : - Vision produit IA, construction de roadmap et déclinaison en increments livrables - Animation des phases POC, MVP et industrialisation en environnement data / IA - Gestion de backlog, user stories, critères d’acceptation, priorisation par la valeur et le risque - Interface quotidienne entre équipes data science, équipes IT, architecture et métiers sécurité financière - Contribution aux comités projet et aux différentes instances de gouvernance (direction, risques, conformité) 👤 PROFIL RECHERCHÉ : - Parcours initial en data science, intelligence artificielle ou machine learning, avec une évolution vers des rôles produit (PO, lead produit, référent IA) - Excellent niveau de compréhension des problématiques IA et data (modèles, données, risques, limites) - Idéalement, expérience dans la fraude, la LCB-FT ou des environnements fortement réglementés (finance, assurance, risk management) - Capacité à challenger les approches techniques et à défendre une vision produit stratégique face à des contraintes multiples (métier, régulation, IT, sécurité) - Aisance pour dialoguer avec des profils variés : data scientists, développeurs, architectes, métiers, conformité - Leadership, autonomie, sens politique et forte maturité professionnelle - Français courant, anglais professionnel (échanges avec différentes équipes et documentation)
Offre d'emploi
Ingénieur Mathématiques Appliquées / ML Data Scientist
Publiée le
Azure
Google Cloud Platform (GCP)
40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
Mission freelance
Développeur / Lead IA Générative
Publiée le
IA
IA Générative
LangChain
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte : Dans le cadre d’un projet stratégique visant à améliorer l’expérience client, notre client souhaite mettre en place un chatbot SAV basé sur des technologies d’IA générative . Ce chatbot sera intégré aux canaux digitaux (site web, application mobile) et devra fournir des réponses précises, contextualisées et instantanées aux demandes fréquentes (statut de commande, assistance, retour produit, garantie, etc.). Objectif : autonomie client, réactivité et fiabilité , tout en réduisant la charge des équipes support. Vos missions : Audit et conseil sur la mise en œuvre d’un agent IA génératif. Développement et intégration via des frameworks tels que LangChain , LangGraph , et gestion de base vectorielle. Accompagnement technique pour la mise en production d’un projet agentique. Mise en place d’agents de tests (type Ragas ) et modélisation (type MCP ). Livrables : Audit, recommandations, développement Data Science.
Offre d'emploi
Architecte Cloud AWS
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Télétravail partiel
Architecte Cloud AWS senior pour un programme de transformation Data & IA en environnement R&D régulé. Définition d’architectures de référence, conception d’une Landing Zone AWS multi-comptes sécurisée et gouvernée, mise en place de standards DevSecOps et compliance audit-ready (GxP/CSV). Leadership technique, design reviews, cadrage de POC et accompagnement des équipes. Conception de plateformes Data/IA (ingestion, stockage, processing, gouvernance, MLOps). Pilotage observabilité et FinOps. Environnement international, forte exigence sécurité et conformité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Ça commence à bouger,non ?
- clause de NC : 2 intermédiaires et client qui cesse sa collaboration avec eux
- Freelances : qu’est-ce qui est le plus difficile au quotidien ?
- Montants Seed pour un modèle hybride (Core team + Freelances) ?
- Démission pour création d'entreprise rapide
- Société étrangère dgfip s en mele
274 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois