Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris
Ce qu’il faut savoir sur Machine Learning
Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.
 
            Mission freelance
            
        Administrer Devops plateforme Data Azure
      
 Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage
            Mission freelance
            
        [MDO] AMOA -  Expert IT Fonctionnel / IA (+15XP)
      
 Pour répondre aux défis de l'innovation et de la sécurité, a été créé le département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. Le Département est composé de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département. Il recherche un consultant expert pour appuyer l'AICC dans la définition et le pilotage de son plan projet : diagnostic de l'existant, la définition de la feuille de route ou du plan projet (comitologie, besoins et livrables) nécessaires au pilotage des opérations sur le périmètre des activités de l'AICC . Mission: diagnostic de l'existant, définition de la feuille de route et du plan projet (comitologie, besoins et livrables) nécessaires au pilotage des opérations sur le périmètre des activités de l'AICC. Tâches et responsabilités : Collecter et analyser les besoins IA des différentes entités Métiers du Groupe BNPP Apporter une connaissance technique et/ou fonctionnelle des spécificités des applications, environnements et processus Construire l'architecture fonctionnelle ou technique adaptée aux besoins identifiés Proposer des solutions innovantes en réponse à des problématiques précises Maîtriser les aspects fonctionnels métiers complexes pour garantir la pertinence des trajectoires IA Collaborer avec les équipes de l'AICC pour construire les trajectoires et le plan projet Compétences attendues : Maîtrise des technologies et concepts liés à l'intelligence artificielle Connaissance approfondie des architectures fonctionnelles et techniques Expérience dans la conduite de projets IA en environnement complexe Capacité à identifier et proposer des solutions innovantes Compétences en modélisation et formalisation des besoins Livrables : Cartographie des besoins IA des Métiers Documentation des architectures fonctionnelles ou techniques proposées Plan projet détaillé avec trajectoires IA Recommandations sur les solutions IA à mettre en œuvre Rapports d'analyse et de synthèse des besoins et des solutions Le consultant devra démontrer une maîtrise des technologies suivantes, en lien avec les travaux de l’AICC : Fondamentaux IA / Machine Learning Machine Learning et Deep Learning Architectures de modèles LLM (transformers, fine-tuning, Retrieval-Augmented Generation - RAG) Expérience avec des solutions de type RAGaaS, LLMaaS, AgentaaS Outils et plateformes : HuggingFace, LangChain, MLFlow Docker, Git, Streamlit Domino Data Lab (pour le déploiement et les tests utilisateurs) CI/CD pour les pipelines de modèles Monitoring et versioning des modèles
            Mission freelance
            
        DBA Snowflake
      
 Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
 
            Mission freelance
            
        Ingénieur IA & Sécurité
      
 CONTEXTE Métiers Fonctions : ML ops, Ingénieur Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique. L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA. Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA. MISSIONS Responsabilités principales 1. Évaluation et tests de solutions de garde-fous IA - Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres). - Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration. - Assurer le monitoring des performances et de la gestion mémoire des modèles testés. 2. Intégration et industrialisation dans les environnements IA - Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP). - Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance. - Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI. - Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO). 3. Partage de connaissances et support transverse - Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA. - Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs. - Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs. - Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité. Livrables attendus - Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse. - Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité. - Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG. Documents de partage de connaissances : ateliers, documentation interne et publications techniques Expertise souhaitée - Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données. - Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP). - Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques. - Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA. - Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001). -Rigueur scientifique et approche expérimentale des problématiques IA. - Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité. - Excellente communication écrite et orale, en anglais et en français. - Autonomie, esprit analytique et goût pour l’innovation. Profil recherché - Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative. - Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques. - Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA. - Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
 
            Mission freelance
            
        Data Scientist / Ingénieur IA
      
 CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Data Management,Data Scientist Spécialités technologiques : Machine learning, IA generative, NLP Compétences Technologies et Outils Python Soft skills Autonomie MISSIONS Objectifs et Enjeux : Le département de notre client est organisé autour de l'acquisition et de la gestion des données des profils des candidats et du rapprochement avec les offres et a besoin de se renforcer avec un profil d’ingénieur IA. Au sein de l'équipe, vous interviendrez sur un domaine de données stratégiques (fiches de compétences et rapprochement candidats / offres). Vous travaillerez en lien étroit avec l’architecte et les experts data, les métiers de l'emploi et du recrutement, ainsi qu'avec les équipes techniques gérant les systèmes existants Votre rôle sera de concevoir, expérimenter et intégrer des solutions d'IA et d'IA génératives permettant de mieux exploiter les données métiers et d'améliorer les capacités de matching. Vous jouerez un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l'optimisation des performances. Vous devrez allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, vous allez travailler en forte autonomie sur les projets qui vous seront confiés. Cette mission s'inscrit dans une ambition stratégique, au coeur de la transformation data de l'organisation. Activités à réaliser : - Concevoir et mettre en oeuvre des algorithmes de traitement du langage naturel (NLP) et de machine learning pour analyser et rapprocher des objets métiers (exemple : des offres d'emploi, des fiches de compétences). - Développer des pipelines de données pour extraire, préparer et vectoriser les informations (intitulés, codes, compétences, savoir-faire, savoirs, savoir-être.). - Expérimenter et comparer différentes approches de similarité sémantique (embeddings, distances, modèles supervisés). - Mettre en place des algorithmes de classification d’objets métier tels que les fiches afin d’en décliner des matrices d’affinités utiles pour le SDR. - Travailler en intégration avec les briques IA/GenAI déjà présentes en interne (LLMs, bases vectorielles, frameworks IA). - Assurer la qualité, la traçabilité et la robustesse des développements IA (tests, documentation, reproductibilité). - Collaborer avec les équipes métiers pour définir les critères de succès et valider la pertinence des résultats. - Préparer et présenter les résultats des expérimentations lors des phases de POC et de déploiement. Expertise souhaitée A minima 6 ans dans des projets IA/NLP, idéalement dans un contexte de matching, recherche d’information, RH/emploi. Compétences requises : - Expertise en Algorithmique - Expertise en Python - Bonne maitrise des modèles d'IA Générative
 
            Mission freelance
            
        Data Scientist GCP adtech
      
 En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.
            Offre d'emploi
            
        Data Analyst / Analytics Engineer (Futur Lead Data)
      
 Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
 
            Mission freelance
            
        MLOps / Azure AI
      
 Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.
 
            Mission freelance
            
        Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory
      
 Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.
 
            Mission freelance
            
        Project Management GenAI (F/H) - 75
      
 Contexte Nous sommes à la recherche d'un chef de projet confirmé avec une expérience significative pour notre client dans des environnements IA, data science ou tech-driven. Vous serez en charge de coordonner des projets complexes intégrant des technologies de pointe (GenAI, LLMs, RAG, Machine Learning) et impliquant des équipes pluridisciplinaires (Product Owners, Data Scientists, AI Engineers, pays). Mission - Définir et piloter les roadmaps projets en lien avec la stratégie IA. - Assurer la coordination multi-équipes et multi-pays (tech, business, data, PO). - Garantir le suivi opérationnel : livrables, planning, ressources, budget et risques. - Mettre en place et animer la gouvernance et le reporting auprès des sponsors. - Accompagner le déploiement et l’adoption des solutions GenAI à l’échelle. - Contribuer à la vulgarisation et la pédagogie auprès des parties prenantes.
            Mission freelance
            
        [FBO] Senior Full Stack Developement Python / React Js spécialisation en AI/RAG Paris - 890
      
 Description: Secteur: Assurance 🎯 idéal : Mission de Développeur full stack confirmé, avec au moins 5 à 8 ans d’expérience en développement backend (Python) et frontend (React.js). Expertise avérée en LangChain, LLMs, RAG, et intégration d’agents IA. Expérience en déploiement et optimisation de modèles IA, idéalement sur des environnements cloud (AWS, Azure). Maîtrise des architectures scalables, CI/CD, conteneurisation (Docker), API REST. Capacité à collaborer en environnement agile, avec des équipes pluridisciplinaires (data, produit, IA). Anglais courant requis, pour évoluer dans un contexte international. ✅ Compétences techniques clés : Backend : Python, Node.js, LangChain, API REST, Docker Frontend : React.js Cloud : AWS, Azure AI/ML : LLMs, RAG, agentic architectures Méthodologie : Agile, Scrum • Type de projet (support / maintenance / implementation /…) : implementation • Type de prestation (Client / Hybrid / Remote) : Remote • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 2/semaine • Urgency : yes • Les astreintes (HNO, etc.) : no • La possibilité de renouvellement (oui/non) : yes
 
            Mission freelance
            
        Mission Longue de Consultant Snowflake
      
 Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
            Mission freelance
            
        [TPR] Architecte Data et IA - Big Data (8/12 XP)
      
 Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC
 
            Mission freelance
            
        Expert Stockage Objet MinIO / S3
      
 CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, InfrastructureExpert Spécialités technologiques :Stockage,API,ML Compétences Technologies et Outils Docker Active Directory Kubernetes LDAP Soft skills Autonomie Rigueur Nous recherchons un expert technique de haut niveau pour accompagner notre client dans la conception, la mise en œuvre, l'optimisation et la maintenance de notre infrastructure de stockage objet basée sur MinIO. Le candidat retenu devra justifier d'une expérience significative en environnement de production, avec des contraintes fortes de haute disponibilité, de performance et de scalabilité. MISSIONS Maîtrise approfondie de MinIO et de l'écosystème S3 - Expertise de l'API S3 : Connaissance complète des fonctionnalités de l'API S3 (gestion des objets, versioning, politiques de cycle de vie, multipart upload, presigned URLs, etc.). - Architecture MinIO : Compréhension fine de l'architecture de MinIO, y compris le fonctionnement du mode distribué, l'erasure coding pour la protection des données, et le processus de guérison automatique (healing). - Déploiement et Configuration : Expérience avérée dans le déploiement de clusters MinIO à grande échelle, que ce soit sur des serveurs bare-metal, des machines virtuelles ou dans un environnement conteneurisé (Kubernetes, Docker). L’échelle en terme de stockage est entre 500 et 900TB en cible à 5ans. - Sécurité : Maîtrise des aspects de sécurité liés à MinIO, incluant le chiffrement (côté serveur et côté client), la gestion des identités et des accès (IAM), et l'intégration avec des fournisseurs d'identité (LDAP, Active Directory). Haute Disponibilité et Scalabilité - Conception d'Architectures Résilientes : Capacité à concevoir et à mettre en œuvre des architectures MinIO garantissant une haute disponibilité (multi-nœuds, multi-sites). - Scalabilité Horizontale : Expérience dans l'ajout de nouveaux nœuds à un cluster MinIO existant sans interruption de service et connaissance des mécanismes de rééquilibrage automatique. - Gestion des Défaillances : Solide expérience dans la gestion des pannes (disques, nœuds) et les stratégies de reprise après sinistre. Performance et Optimisation - Analyse de Performance : Compétence dans l'utilisation d'outils de benchmark (comme warp) pour mesurer et analyser les performances (latence, débit) d'un cluster MinIO. - Optimisation : Capacité à identifier et à résoudre les goulots d'étranglement, que ce soit au niveau matériel (réseau, disques NVMe), système ou applicatif. - Caching : Connaissance des stratégies de mise en cache pour optimiser les performances des lectures. Expertise souhaitée Expérience de Production et Références Exigées Le candidat doit pouvoir présenter de manière détaillée une ou plusieurs implémentations significatives en environnement de production : - Description du Cas d'Usage : Quel était le besoin métier (stockage pour de l'analytique, de l'IA/ML, des sauvegardes, des médias, etc.) ? - Volumétrie et Charge : Quelle était la volumétrie des données gérées et le niveau de trafic (nombre de requêtes par seconde) ? - Enjeux de Performance : Description des défis spécifiques liés à la performance et des solutions mises en place pour y répondre. - Incidents et Résolution : Exemples concrets d'incidents de production gérés et des leçons apprises. Connaissance d'une Solution Alternative : Une expérience significative avec une autre solution de stockage objet compatible S3 est un atout majeur. Le candidat devrait être capable de comparer MinIO à cette alternative sur des critères techniques et opérationnels. Exemples de solutions alternatives pertinentes : - Ceph - OpenIO - Garage - Services S3 natifs dans un contexte cloud privé SecNumCloud Qualités Personnelles - Autonomie et Proactivité : Capacité à travailler de manière autonome, à diagnostiquer des problèmes complexes et à proposer des solutions robustes. - Rigueur et Méthodologie : Approche structurée dans la résolution des problèmes et la gestion des environnements de production. - Bonne Communication : Aptitude à communiquer clairement sur des sujets techniques complexes avec différentes équipes.
            Offre d'emploi
            
        Data Scientist Senior
      
 Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)
 
            Mission freelance
            
        Data Engineer IA GCP
      
 🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.
 
Derniers posts sur le forum
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres