Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 158 résultats.
CDI

Offre d'emploi
Administrateur Elastic / Observabilité (H/F)

DCS EASYWARE
Publiée le

Charenton-le-Pont, Île-de-France
Dans le cadre du renforcement d'une plateforme de supervision et d'observabilité à forte volumétrie, nous recherchons un Administrateur Elastic pour intervenir sur des environnements critiques et contribuer activement à la mise en oeuvre de solutions d'AIOps et de supervision de bout en bout. Vous interviendrez sur l'ensemble du cycle de vie de la plateforme Elastic et serez notamment en charge de : - Administrer l'orchestrateur Elastic Cloud Enterprise (ECE) et les clusters Elasticsearch afin de centraliser les logs techniques et applicatifs du groupe. - Diagnostiquer et résoudre des problématiques de performance sur des environnements à très forte volumétrie - Participer aux montées de version (ECE 3.5, Elasticsearch 8.x). - Intégrer l'ensemble du patrimoine applicatif dans une offre de supervision DSI / AIOps. - Contribuer à l'intégration continue des évolutions de l'offre de service dans les chaînes CI/CD. Environnement technique (non exhaustif) - Stack Elastic : Elasticsearch, Elastic Cloud Enterprise, Logstash, Kibana, Beats, Machine Learning, Datastream, ILM (Hot/Warm/Cold/Frozen), Searchable Snapshots - DevOps : Git, Bitbucket, Jenkins, XL-Deploy - Systèmes & outils : Linux, Docker, Grafana, Python, SAML, S3 Poste également ouvert aux freelances. - Solide expérience sur des environnements Elastic à grande échelle - Autonomie, rigueur et sens du service - Bonnes compétences relationnelles et rédactionnelles - Capacité à présenter et défendre des dossiers techniques devant différentes instances - Une certification Elastic Certified Engineer serait un réel plus Pourquoi nous rejoindre ? - Environnement technique exigeant et stimulant - Projets à fort impact sur la supervision et la performance SI - Forte autonomie et responsabilités - Équipe experte et collaborative
Freelance

Mission freelance
Responsable Centre de Compétences CRM (Salesforce)

STHREE SAS pour HUXLEY
Publiée le

12 mois
500-850 €
Puteaux, Île-de-France
Localisation : Paris - La Défense Modèle hybride Freelance ou portage Mission avec une longue visibilité À propos de l'entreprise Notre client est un acteur international majeur dans le secteur des solutions technologiques et des services digitaux, opérant dans un environnement multi‑pays et auprès de clients de toutes tailles : PME, grands groupes et institutions financières. Contexte La division Digital & Data conçoit et opère des produits numériques couvrant l'ensemble du cycle de vie client : expérience utilisateur, outils commerciaux, solutions de service, pilotage de la donnée et applications d'intelligence artificielle. Elle collabore étroitement avec les équipes commerciales, marketing, opérations et fonctions support pour améliorer l'expérience client, l'efficacité opérationnelle et la performance business. La mission L'entreprise recherche un Responsable du Centre de Compétences CRM chargé de définir la vision stratégique, de piloter la gouvernance et d'assurer la livraison des capacités CRM à l'échelle du groupe. Ce rôle est essentiel pour soutenir l'ambition commerciale et opérationnelle : de la gestion des ventes au support client, via une plateforme CRM moderne, rationalisée et évolutive. Le poste exige une vision stratégique forte, une maîtrise des environnements CRM complexes, ainsi qu'une capacité à diriger un centre de compétences transversal. Missions principales Vision stratégique & Architecture CRM Définir l'architecture cible du CRM, couvrant MDM, gestion commerciale, service client et gestion partenaires. Développer une stratégie de rationalisation des instances CRM existantes (incluant plusieurs environnements Salesforce). Définir la feuille de route du système CRM historique (type Odoo ou équivalent) : maintenance, migration, consolidation ou décommissionnement. Expliquer la valeur métier des investissements CRM auprès des dirigeants. Surveiller les évolutions du marché, notamment les solutions CRM augmentées par l'IA (ex. automatisation, assistances IA). Delivery & Exécution Diriger l'équipe du Centre de Compétences CRM pour garantir une exécution prévisible et de qualité. Piloter les programmes majeurs : intégrations plateformes, automatisations métier, workflows service, connecteurs data. Assurer l'évolution maîtrisée de la plateforme CRM principale (Salesforce ou équivalent). Gérer la gouvernance de delivery, en coordination avec les équipes Data, Digital, Risques et partenaires externes. Identifier et gérer les risques, dépendances, arbitrages et escalades. Gouvernance & Relations Business Mettre en place une gouvernance efficace avec les équipes commerciales, marketing, service client et planification. Garantir l'alignement constant entre priorités business et feuille de route CRM. Construire une relation de confiance avec les directions métiers et les fonctions centrales. Contribuer aux programmes stratégiques transverses de transformation digitale. Budget & Roadmap Construire et piloter le budget annuel du Centre de Compétences CRM. Définir une roadmap claire, priorisée et partagée avec les parties prenantes. Gérer la relation avec les éditeurs et partenaires (notamment Salesforce), incluant achat des licences et analyse coût / valeur. Leadership & Management d'équipe Encadrer et développer une équipe CRM internationale (onshore / offshore). Installer un esprit de collaboration, de responsabilité et d'amélioration continue. Incarner les principes de leadership du groupe : orientation client, ownership, courage managérial, travail en équipe. Profil recherché Compétences & expérience indispensables 10+ ans d'expérience en stratégie CRM, delivery ou product management, dont 5 ans en management . Expertise approfondie des solutions Salesforce (Sales Cloud, Service Cloud ; idéalement Revenue Cloud, Experience Cloud). Expérience dans la gestion ou la migration de plateformes CRM/ERP historiques (Odoo ou similaire). Expérience confirmée dans des environnements multi‑instances et architectures complexes. Solides compétences en pilotage de projets / programmes et coordination transversale. Capacité à interagir avec des dirigeants (ExCo, CTO, DG…). Expérience de gestion budgétaire et relation éditeur. Maîtrise de l'anglais. Atouts supplémentaires Expérience dans les secteurs paiement , financier ou retail . Connaissances Mulesoft, MDM ou patterns d'intégration data. Connaissance des solutions IA / ML appliquées au CRM (Einstein, Agentforce…). Certifications Salesforce (Architecte, Solution Architect…). Expérience en organisation matricielle internationale. Compétences comportementales (Leadership) Vision stratégique : capacité à définir une cible et la traduire en plan opérationnel. Gestion de parties prenantes : aligner, arbitrer, influencer. Focus exécution : livrer avec prévisibilité en environnement complexe. Collaboration : travailler au‑delà des silos. Résilience : naviguer dans l'ambiguïté et le changement. Communication : vulgariser les sujets complexes auprès de publics techniques et non techniques.
Freelance

Mission freelance
Expert Cybersécurité – GenAI / Azure

AVALIANCE
Publiée le
AI
Azure
Cybersécurité

3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Freelance

Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178

ISUPPLIER
Publiée le

5 mois
450-525 €
Guyancourt, Île-de-France
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Freelance
CDI

Offre d'emploi
Chef de projet IA

OBJECTWARE MANAGEMENT GROUP
Publiée le
Gestion de projet

3 ans
40k-80k €
400-550 €
Île-de-France, France
💼 Contexte Dans le cadre du développement de solutions innovantes basées sur l’ Intelligence Artificielle , et notamment l’ IA générative , nous recherchons un Business Analyst IA pour accompagner la conception, le cadrage et le déploiement de cas d’usage à forte valeur ajoutée. Vous interviendrez à l’interface entre les équipes métiers, data, IA et IT afin de transformer les besoins business en solutions IA concrètes, performantes et responsables. 🎯 Missions principales Identifier, analyser et prioriser les cas d’usage IA / IA générative (chatbots, assistants métiers, moteurs de recherche augmentés, automatisation intelligente, etc.) Recueillir et formaliser les besoins métiers (workshops, interviews, benchmarks) Rédiger les spécifications fonctionnelles, user stories et critères d’acceptation Participer au cadrage des solutions IA (LLM, RAG, modèles propriétaires ou open source) Collaborer avec les équipes Data Scientists, ML Engineers et développeurs Contribuer à la définition des parcours utilisateurs et à l’expérience IA Participer aux phases de tests fonctionnels, d’évaluation des modèles et d’UAT Suivre la performance des solutions (qualité des réponses, ROI, adoption) Veiller aux enjeux de conformité, d’éthique, de sécurité et de protection des données
CDI
Freelance

Offre d'emploi
PhD IA & Data

Inventiv IT
Publiée le
Data science
Deep Learning
IA

1 an
39k-50k €
300-500 €
Paris, France
Au sein de la Data & IA Fabric d'INVENTIV IT, nous recherchons des PhD IA & Data (+3 ans d'expérience minimum) afin de travailler sur la mise en place d'une IA Souveraine et des projets internationaux connexes autours de la Data & IA Mise en Place d'une IA souveraine Construction et évaluation de modèles de Machine Learning. Utilisation de frameworks de Deep Learning (TensorFlow, PyTorch, Scikit-Learn). Préparation de données, ingénierie des caractéristiques ( feature engineering ) et test de modèles. Développement d'applications IA à petite échelle et de preuves de concept (PoC). Mise en place de LLM Souverain Solutions & Agentique IA Data Market Place Travail au sein d'équipes pluridisciplinaires et respect des meilleures pratiques d'ingénierie. Vous êtes quelqu'un de passionné par l'IA & la Data. Vous êtes en veille constante sur les nouvelles technologies et solutions. Vous pratiquez de manière opérationnelle depuis + de 3 ans. Proactif, rigoureux, désireux d'explorer de nouvelles techniques d'IA et déterminé à évoluer vers un poste d'ingénieur pleinement autonome capable de gérer des projets d'IA de plus grande envergure. Vous souhaitez devenir les meilleurs et être encadré par des expert séniors avec des expériences à l'international Alors rejoignez-nous ! Francophone et Anglophone obligatoire Date de démarrage : Janvier/Février 2026 Localisation : France Rythme : ouvert au Full TT Chez INVENTIV IT, nous faisons de l'IA & Data un levier business accessible, conforme et intégrer dans les processus métiers
CDI
Freelance

Offre d'emploi
Expert IA sénior Maroc

Inventiv IT
Publiée le
Data science
Deep Learning
IA

1 an
40k-60k €
400-550 €
Maroc
Au sein de la Data & IA Fabric d'INVENTIV IT, nous recherchons des experts IA (+5 ans d'expérience minimum) afin de travailler sur la mise en place d'une IA Souveraine et des projets internationaux connexes autours de la Data & IA Mise en Place d'une IA souveraine Construction et évaluation de modèles de Machine Learning. Utilisation de frameworks de Deep Learning (TensorFlow, PyTorch, Scikit-Learn). Préparation de données, ingénierie des caractéristiques ( feature engineering ) et test de modèles. Développement d'applications IA à petite échelle et de preuves de concept (PoC). Mise en place de LLM Souverain Solutions & Agentique IA Data Market Place Travail au sein d'équipes pluridisciplinaires et respect des meilleures pratiques d'ingénierie. Vous êtes quelqu'un de passionné par l'IA & la Data. Vous êtes en veille constante sur les nouvelles technologies et solutions. Vous pratiquez de manière opérationnel depuis + de 5 ans. Proactif, rigoureux, désireux d'explorer de nouvelles techniques d'IA et déterminé à évoluer vers un poste d'ingénieur pleinement autonome capable de gérer des projets d'IA de plus grande envergure. Vous souhaitez devenir les meilleurs et être encadré par des expert séniors avec des expériences à l'international Alors rejoignez-nous ! Francophone et Anglophone obligatoire Date de démarrage : Janvier/Février 2026 Localisation : Maroc Rythme : ouvert au Full TT Chez INVENTIV IT, nous faisons de l'IA & Data un levier business accessible, conforme et intégrer dans les processus métiers
CDI

Offre d'emploi
ARCHITECTE SOLUTION DATA

Inventiv IT
Publiée le
Architecture
AWS Cloud
Data visualisation

74k-82k €
Paris, France
Forte expertise d’architecture Big Data et Cloud. Au sein de la Data & IA Fabric, couvrant les missions d’étude, de conception, de réalisation et de maintenance du socle Data et des SI du périmètre, ainsi que l’accompagnement des métiers dans l’utilisation des différentes plateformes Data existantes ou en développement. Mission : concevoir et construire l’architecture fonctionnelle, logique, physique et opérationnelle des plateformes dans le cadre de la stratégie des socles Data (Plateformes Data). Assister les architectes solutions, devops et data ingénieurs des squads Plateformes dans leurs activités de BUILD et de RUN. Build EXEMPLE : Proposer des évolutions des briques socle, rédiger leur cadrage technique, voire même, selon le profil du consultant, contribuer directement à leur intégration et configuration. Participer à la priorisation des fonctionnalités dans les cadrages de versions des socles plateformes. Définir des normes de développement sur la plateforme Data Groupe. Participer à la validation de la stratégie de recette (TU, TI, TAU) applicables aux développements Plateforme d’un côté, et aux développements de la squad Projet de l’autre Assurer la gestion des risques techniques et de la réversibilité pour la platform Data et le Data Catalogue Groupe Run EXEMPLE : Positionner, superviser voire Contribuer au maintien en conditions opérationnels des plateformes Data et du Catalogue Groupe (maintenance corrective, préventive et évolutive) Support expert N3 Sous la responsabilité du Product Owner de la Plateforme Data Groupe Il s’appuiera sur une équipe complète de DevOps, Data Ingénieurs et des leads de pratique Data Management, Dataviz et ML Ingénierie, ainsi que sur un pool d’architectes dédiés. Expériences réussies d’au -moins 6 ans dans le conseil en architecture solution data Expérience d’au moins 3 ans comme data ingénieur, en vue de la création, l’orchestration et monitoring de flux de données, sur des clouds publics, de préférence AWS Une expertise de développement en langage Spark et Python, pendant au moins 3 ans, est requise afin de réaliser les code reviews Une expérience sur Databricks d’au moins 4 ans sur une plateforme. Une 1è certification Databricks officielle est requise Une expérience d’intégrateur, de mises en production avec les technologies : Terraform, ou Jenkins, Docker ou Kubernetes. Paris 12 – 3 jours de TT
Freelance

Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique

ARTESIA IT
Publiée le
Snowflake

1 an
500-550 €
Belgique
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
CDI

Offre d'emploi
Ingénieur R&D Data Scientist expérimenté (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
[FBO] Ingénierie cybersécurité expertise SOAR - Montpellier - 1182

ISUPPLIER
Publiée le

4 mois
300-435 €
Montpellier, Occitanie
Les Missions : Intégrer une équipe d'experts dédiée à la création de produits de sécurité opérationnelle et de solutions pour anticiper les menaces. Le rôle sera crucial dans la transformation de notre capacité de réponse aux incidents. Evoluerer en tant qu’expertise sur la plateforme SOAR (Security Orchestration, Automation, and Response) et le moteur de l'automatisation. Le profil recherché a une expérience de minimum 3 à 5 ans dans le domaine de la Sécurité Opérationnelle, avec une expérience significative dans le déploiement et l'exploitation d'une solution SOAR. Construire et faire évoluer notre plateforme SOAR : • Conception et Déploiement : Participer au choix, à la conception et au déploiement de notre solution SOAR (ex: Shuffle.io, Cortex XSOAR, Splunk Phantom, D3 Security, etc.). • Intégration : Réaliser l'intégration technique de la plateforme SOAR avec les autres outils de sécurité (SIEM, EDR, Threat Intelligence, pare-feux, solutions IAM, etc.). • Maintenance : Assurer la haute disponibilité, la résilience et l'évolution technique de la plateforme SOAR. Automatiser et Optimiser la Réponse aux Incidents : • Automatisation de Playbooks : Proposer, développer et maintenir des playbooks d'automatisation pour les cas d'usage sécurité (triage des alertes, enrichissement des données, confinement, réponse aux menaces courantes). • Orchestration : Orchestrer les actions entre les différents outils de sécurité pour réduire les délais de détection et de réponse. • Pilotage de la performance : Mesurer et optimiser le taux d'automatisation et l'efficacité des playbooks pour libérer du temps aux analystes du SOC. • Culture de l'Innovation et IA/DevOps • Intelligence Artificielle : Explorer et proposer l'intégration de capacités basées sur l'IA (Machine Learning, LLM) pour améliorer la classification des alertes, la chasse aux menaces (Threat Hunting) et l'aide à la décision des analystes. • Pratiques DevOps SecDevOps : Appliquer les meilleures pratiques DevOps (CI/CD, Infrastructure as Code) pour la gestion des playbooks et des connecteurs (versioning, tests automatisés, déploiement continu). Compétences Techniques : • SOAR : Expertise Impérative. Expérience avec au moins une plateforme (Shuffle.io, Cortex XSOAR, Splunk Phantom, Swimlane, etc.). • Scripting / Code : Développement de playbooks, scripts d'intégration et connecteurs. • DevOps / CI/CD : Bonnes connaissances de Git, GitLab (CI/CD), Kubernetes (un plus), Docker, Ansible. • Sécurité Opérationnelle : Solides connaissance du domaine et notamment autour du SOC, du VOC et de la réponse sur incidents. Compétences Comportementales : • Capacité d'Innovation : Forte appétence pour les nouvelles technologies, notamment l'Intelligence Artificielle appliquée à la sécurité. Type de projet (support / maintenance / implementation /…) : Build & Run Type de prestation (Client / Hybrid / Remote) : Hybrid ombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3j consécutifs toutes les 3 semaines sur Montpellier
Freelance

Mission freelance
Product Owner IA / Data

LeHibou
Publiée le
Data science
IA
IA Générative

12 mois
400-550 €
Croix, Hauts-de-France
Missions principales 2.1 Vision & stratégie produit IA - Porter la vision produit des solutions d’IA en lien avec les équipes métier. - Identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers. - Prioriser les projets en fonction de la valeur business et de la faisabilité (technique, réglementaire, ROI). 2.2 Gestion du backlog & priorisation - Être garant de la priorisation des initiatives Data Science/IA. - Traduire les besoins métier en features et user stories. - Alimenter, structurer et maintenir le backlog produit. - Arbitrer les priorités selon la valeur ajoutée attendue, le feedback utilisateur et les contraintes (réglementaires, techniques, ROI). - Maximiser l’impact business de chaque sprint livré. 2.3 Pilotage du delivery agile - Piloter la delivery des projets IA en méthodologie agile. - Organiser et animer les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives). - Suivre l’avancement des développements et lever les obstacles en coordination avec les autres départements. - Veiller au respect des engagements de qualité, budget et délais. - Communiquer de manière proactive sur l’avancement auprès des sponsors et du management. 2.4 Coordination Métiers–Data–IT - Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. - Co-construire les solutions avec les experts métier et favoriser leur adoption. - Intégrer les contraintes techniques avec les équipes Data/IT pour une implémentation fluide des solutions IA. 2.5 Crédit & Risque (Scoring) – Use cases Machine Learning - Piloter les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). - En lien avec les équipes Risque et Validation, concevoir et suivre les projets d’optimisation des scores existants et le développement de nouveaux modèles. - Explorer des approches innovantes (nouvelles données, algorithmes avancés). - S’assurer que les modèles contribuent à la maîtrise/stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. - Veiller à la mise en production et au monitoring des modèles (détection de dérive, recalibrage) en collaboration avec les Data Scientists et Analystes Risque. 2.6 IA générative & agents - Explorer et déployer les cas d’usage liés à l’IA générative pour transformer les processus internes et la relation client. - Piloter des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). - Lancer des MVP d’agents pour : • Automatiser l’analyse de documents complexes. • Assister les équipes internes (Audit, Marketing, etc.). • Enrichir le support client. - Définir les objectifs et indicateurs de succès de ces projets. - Superviser les étapes de prototypage et de déploiement en production. - Mettre en place des architectures agentiques robustes pour ces solutions. - Évaluer et optimiser les performances des agents (cohérence, pertinence, diversité des réponses), en s’appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). - Garantir un usage responsable, sécurisé et efficace de l’IA générative pour l’entreprise. Missions génériques associées au rôle : - Mener la livraison d’un produit de qualité répondant aux attentes des clients et équipes métiers. - Élaborer la vision produit avec les utilisateurs et les équipes techniques (UX, marketing) et être responsable de la conception du produit. - À chaque sprint, vérifier que la direction prise est la bonne, que les priorités métier sont respectées et que la qualité des livrables est adéquate. - Identifier les attentes des utilisateurs et les bénéfices attendus du produit. - Réaliser des benchmarks des solutions du marché, notamment chez les concurrents. - Élaborer les fonctionnalités attendues et les prioriser dans le backlog produit. - Travailler en collaboration avec l’UX sur le parcours client cible et sa déclinaison en trajectoire (MVP). - Partager la vision produit avec les équipes de développement agile. - Définir et planifier les releases/versions du produit. - Créer chaque fonctionnalité retenue sous forme de user story suffisamment petite pour être implémentée en une itération, avec critères d’acceptation clairs. - Comprendre les "Technical Stories" (besoins non fonctionnels) et les "Defect Stories" proposées par les équipes de développement. - Répondre aux demandes de clarification des équipes de développement sur les stories en cours. - Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master. - Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et porter la voix métier avec persuasion. - Accepter ou refuser les stories implémentées par les équipes de développement. - Réaliser ou organiser les tests utilisateurs/métiers des versions (avec une équipe de recette si projet complexe). - Le cas échéant, animer une équipe de Business Analysts, rédacteurs et testeurs métier lorsque le backlog le nécessite. - Récolter les feedbacks utilisateurs et évaluer le fonctionnement des versions précédentes en production. - Assurer la non-régression des nouvelles versions. - Manager des équipes de rédaction et de recette de user stories pour des projets agiles d’envergure. - Co-construire et animer le dispositif de conduite du changement avec un PMO Deploy. - Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs.
Freelance

Mission freelance
Data engineer H/F

Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks

2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Freelance

Mission freelance
Senior Consultant Data & AI / Data Product Factory

SQLI
Publiée le
Database

3 mois
400-650 €
Paris, France
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

5COM Consulting
Publiée le
Azure
Python

1 an
750 €
Paris, France
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

158 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous