Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 159 résultats.
Freelance

Mission freelance
Data Engineer senior - DATA et IA

Calytis
Publiée le
AWS Cloud
CI/CD
MLOps

12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.
Freelance
CDI

Offre d'emploi
Développeur Python IA (H/F)

STORM GROUP
Publiée le
AI
Python

3 ans
50k-60k €
480-550 €
Île-de-France, France
Contexte du poste : Dans un environnement data-driven en forte évolution, nous recherchons un(e) Développeur(se) Python issu(e) du monde de la data , avec de solides connaissances en intelligence artificielle . Vous interviendrez sur des projets à fort impact mêlant data engineering, data science et mise en production de modèles IA. Missions principales : Concevoir, développer et maintenir des applications et pipelines Python orientés data Manipuler, nettoyer et analyser de grands volumes de données (structurées et non structurées) Développer, entraîner et optimiser des modèles de machine learning / IA Mettre en production des modèles (MLOps, APIs, batch ou temps réel) Collaborer avec les équipes Data, Produit et Tech sur des projets transverses Participer aux choix d’architecture et aux bonnes pratiques de développement Rédiger une documentation technique claire (en anglais si nécessaire)
Freelance
CDI

Offre d'emploi
Product Owner IA Banque - LILLE (H/F)

STORM GROUP
Publiée le
AI
Chatbot
RAG

3 ans
54k-60k €
550-590 €
Lille, Hauts-de-France
• Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance

Mission freelance
Head of CRM Competency Center H/F

Grafton
Publiée le

6 mois
800-1 200 €
France
Grafton recrute : Head of CRM Competency Center (H/F) Localisation : La Défense Mission : 6 mois renouvelable Client : Groupe international - secteur services financiers & technologiques (anonymisé) TJM : 900 - 1 100 € selon profil Contexte de la missin Nous accompagnons un acteur international majeur dans sa transformation digitale. Dans ce cadre, nous recherchons un Head of CRM Competency Center pour piloter la stratégie, la gouvernance et la delivery CRM à l'échelle du groupe. La mission s'inscrit au sein de la division Digital & AI, avec un rôle clé dans la modernisation des plateformes commerciales et de service client. L'environnement CRM repose principalement sur Salesforce (multi-instances) et un système Odoo en legacy. Responsabilités principales Vision & Architecture CRM Définir l'architecture cible CRM du groupe et le rôle de Salesforce dans les processus sales, service, MDM et partner management. Construire la stratégie de consolidation des multiples instances Salesforce vers une plateforme unifiée et scalable. Définir la feuille de route du CRM legacy (Odoo) : maintenance, migration, consolidation ou décommissionnement. Porter la vision CRM auprès des sponsors exécutifs et directions métiers. Anticiper les évolutions du marché, notamment les capacités CRM augmentées par l'IA. Pilotage de la Delivery Manager le Centre de Compétences CRM (équipes onshore/offshore). Garantir la livraison des roadmaps : intégrations, automatisations, workflows service, projets transverses. Assurer la cohérence des évolutions Salesforce et la continuité opérationnelle d'Odoo. Gérer la gouvernance de delivery, les dépendances et les partenaires externes. Piloter les risques, arbitrages et escalades. Gouvernance & Stakeholders Mettre en place une gouvernance efficace avec les équipes Go-to-Market et les fonctions corporate. Aligner les priorités CRM avec les besoins business. Contribuer aux programmes stratégiques du groupe (digitalisation, commerce unifié, remédiation Risk…). Budget & Roadmap Construire et suivre le budget annuel CRM. Définir une roadmap claire, priorisée et validée par les parties prenantes. Gérer la relation avec les éditeurs, notamment Salesforce (licences, ROI, besoins métiers). Leadership Développer et fédérer une équipe CRM performante. Promouvoir une culture d'ownership, de collaboration et d'amélioration continue. Profil recherché Compétences & Expérience 10+ ans d'expérience en stratégie CRM, delivery ou product management. 5+ ans en rôle de leadership. Expertise approfondie de Salesforce (Sales Cloud, Service Cloud, idéalement Revenue/Experience Cloud). Expérience dans la gestion de plateformes CRM/ERP legacy (Odoo ou équivalent). Expérience avérée en architecture CRM dans des environnements multi-instances. Forte capacité à piloter des équipes transverses et des roadmaps complexes. Aisance avec les parties prenantes exécutives. Maîtrise de la gestion budgétaire et des relations éditeurs. Anglais courant. Atouts supplémentaires Expérience dans les paiements ou services financiers. Connaissance Mulesoft, MDM, data integration. Connaissance des applications IA/ML appliquées au CRM. Certifications Salesforce appréciées. Expérience en organisation matricielle internationale. #LI-ST1
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Deep Learning
Python
Pytorch

Moissy-Cramayel, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Référent technique Dataiku / Braincube (H/F)

Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku

2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
Freelance

Mission freelance
PO Solutions IA H/F

Karma Partners
Publiée le
IA Générative
Large Language Model (LLM)
RAG

6 mois
400-510 €
Croix, Hauts-de-France
• Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance

Mission freelance
[SCH] Data Scientist – Intelligence Artificielle - 1187

ISUPPLIER
Publiée le

10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Contexte de la mission : Dans le cadre de la création d’une nouvelle entité dédiée à l’Intelligence Artificielle, notre client souhaite renforcer ses équipes avec un Data Scientist afin de développer de nouveaux cas d’usage IA à forte valeur ajoutée. La mission s’inscrit dans une logique d’innovation, de co-construction avec les métiers et de montée en compétence collective, autour de projets mêlant Machine Learning, Deep Learning, LLM et algorithmes d’optimisation, dans un contexte de sensibilité des données. Missions principales : La mission s’organise autour de trois axes majeurs : 1. Identification et analyse des besoins -Participer activement aux ateliers d’idéation avec les équipes métiers -Analyser et formaliser les besoins clients -Proposer des solutions algorithmiques sur mesure, adaptées aux enjeux métier -Challenger les cas d’usage en termes de faisabilité, performance et valeur ajoutée 2. Développement et validation des modèles d’IA -Analyser rapidement les données disponibles (qualité, volumétrie, sensibilité) -Sélectionner les modèles d’IA les plus pertinents selon les problématiques identifiées -Développer, entraîner, tester et valider des modèles : -Algorithmes d’optimisation -Machine Learning / Deep Learning -LLM -Développer et tester des applications et prototypes IA -Industrialiser les modèles en tenant compte des contraintes de sécurité et de déploiement 3. Partage de connaissance et communication -Partager régulièrement les avancées, innovations et retours d’expérience -Contribuer à la diffusion de la connaissance au sein de l’entité -Communiquer efficacement sur les succès, apprentissages et bonnes pratiques -Participer à la montée en compétence collective de l’équipe Profil attendu : -Data Scientist confirmé avec une forte appétence pour l’innovation -Capacité à intervenir de l’idéation à l’industrialisation -À l’aise dans des environnements collaboratifs et pluridisciplinaires -Excellent sens de la communication et de la pédagogie -Autonomie, curiosité et esprit de recherche appliquée
Freelance

Mission freelance
Cyberdefense Splunk Expert

Groupe Aptenia
Publiée le
Cortex XSOAR
Développement
Python

12 mois
400-610 €
Paris, France
Administrer les applications et gérer les accès utilisateurs au sein de la plateforme Splunk. Assurer la maintenance régulière et garantir la stabilité de la plateforme. Concevoir et produire des rapports et des tableaux de bord pour répondre aux besoins opérationnels et de sécurité. Gérer les processus d’ingestion de données et superviser l’intégration des sources de données et des équipements de journalisation dans Splunk. Garantir l’exactitude, la cohérence et la qualité des données ingérées. Rétablir la collecte des logs en cas de perte de données ou d’interruption. Communiquer avec les équipes internes et les clients externes, principalement en français et en anglais. Contribuer à l’extension et à l’évolution de la couverture de supervision et de détection. Participer aux efforts d’automatisation des workflows d’intégration des données et de contrôle qualité. Rédiger la documentation technique et les guides utilisateurs pour un usage interne et externe. Participer à une rotation d’astreinte partagée (équipe de 6 personnes) pour Splunk et les outils associés. Aider aux projets de migration et de transformation liés à Splunk ou aux systèmes de collecte associés. Développer et déployer des algorithmes de machine learning afin d’améliorer les capacités d’analyse et de détection. Contribuer à la création de règles de détection cybersécurité et à l’implémentation de cas d’usage. Proposer en continu des améliorations sur les outils, les procédures et la gestion des incidents afin de renforcer la détection et la remédiation des menaces. Construire des tableaux de bord et définir des métriques et KPI de sécurité. Participer aux communautés internes de sécurité et contribuer au partage de connaissances entre équipes.
Freelance

Mission freelance
Tech Lead CSIRT

Groupe Aptenia
Publiée le
Analyse forensic

1 an
500-600 €
Auvergne-Rhône-Alpes, France
En tant que Tech Lead (CERT/CSIRT) , vous occupez un rôle central dans la protection de l’écosystème de l’organisation . Vous intervenez comme référent technique et opérationnel , avec une responsabilité directe sur la gestion des incidents critiques et l’évolution du dispositif de réponse à incident. Leadership technique – Blue Team Référent technique sur les briques clés de la sécurité opérationnelle : SIEM, Active Directory / Entra ID, EPP/EDR, forensic et reverse engineering Encadrement technique et accompagnement des analystes, avec une montée en compétences sur plusieurs zones géographiques Animation de sessions techniques, diffusion des bonnes pratiques et structuration du savoir-faire Blue Team Gestion des incidents et des crises Pilotage des plans de réponse aux incidents majeurs , de la détection à la remédiation Intervention experte en forensic numérique et reverse engineering Coordination des actions de remédiation et suivi des plans correctifs Réalisation d’analyses approfondies des causes racines ( Root Cause Analysis ) et restitution auprès des parties prenantes Optimisation des capacités de détection Évaluation continue de l’efficacité des stratégies de détection SOC Amélioration et optimisation des plateformes et outils de sécurité ( SIEM, EDR, SOAR, IA appliquée à la cybersécurité ) Contribution à l’industrialisation et à la fiabilisation des processus de détection et de réponse Contribution stratégique & veille Participation à la définition et à l’évolution des politiques de sécurité , en lien avec les équipes d’architecture Veille technologique proactive et échanges réguliers avec la Red Team pour anticiper les menaces émergentes Contribution au rayonnement et à l’enrichissement des connaissances du groupe via des communautés externes et partenariats Environnement technique & outils SIEM : Splunk (maîtrise du SPL ), Sentinel, Machine Learning EPP / EDR : Microsoft Defender, Palo Alto Cortex XDR, Trend Micro Deep Security Forensic / DFIR : DFIR-ORC, Volatility, outils open source (contribution active aux communautés) Réseaux & sécurité : Palo Alto GlobalProtect, IDS/IPS, VPN, analyse de logs (Wireshark) Systèmes & scripting : Windows, Linux, PowerShell, Python, Bash Compétences comportementales Forte initiative et capacité de prise de décision Esprit d’ équipe et leadership collaboratif Autonomie et sens des responsabilités Culture de l’ apprentissage continu et de l’amélioration permanente
Freelance

Mission freelance
Data Scientist / MLOps Engineer

VISIAN
Publiée le
DevOps

2 ans
400-550 €
Île-de-France, France
Le pôle est composé d'une vingtaine de personnes dont une majorité de Deep Learning Scientists. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe elle-même. La mission sera d'une durée minimale de 3 mois. La personne travaillera en binôme avec un MLEng de l'équipe. Disposer d'une habilitation défense est un plus pour la mission. La capacité à venir sur le site parisien 2 jours par semaine est aussi un plus. Mission Assurer la maintenance de la stack d'outils de l'équipe et notamment : Participer à rendre les algorithmes IA compatibles d'architecture GPU Blackwell Mettre à jour les dépendances de la codebase (Python, CUDA) Participer au développement de nos outils de MLOps en général Et aussi : Mettre en place les processus permettant une maintenance pro-active et continue de la codebase Participer à la montée en compétence des data scientists de l'équipe sur leur compétence SW Participer à la mise en place de notre stack environnement classifié Stack technique Python (3.10+), PyTorch et TensorFlow pour nos frameworks de deep learning PostgreSQL (PostGIS) pour la gestion de nos bases de données, Airflow, des dockers orchestrés par Nomad de Hashicorp Environnements DevOps utilisant principalement Ansible, Terraform pour l'automatisation et la suite Prometheus / Grafana pour le monitoring Cloud multi-fournisseurs (AWS & OVH) et environnement de développement classifié on-premise Compétences requises Une formation en Software Engineering, en apprentissage automatique, en vision par ordinateur ou dans un domaine similaire Au moins 5 ans d'expérience en développement back-end en Python et / ou en ML engineering Techniquement : D'une très bonne connaissance de Python D'une expérience en MLOps et d'une connaissance de TensorFlow, PyTorch, CUDA Une connaissance de la manipulation de données géospatiales est un plus En terme de soft skills : Vous êtes pédagogue et aimez coacher vos collègues pour aider les Deep Learning Scientists
Freelance
CDI

Offre d'emploi
Ingénieur Infrastructure & Big Data

Ela Technology
Publiée le
Cassandra
Hadoop
Linux

1 an
40k-55k €
400-550 €
Nancy, Grand Est
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Freelance

Mission freelance
QA & Automation Engineer Junior

Gentis Recruitment SAS
Publiée le
.NET
Angular
C#

6 mois
Paris, France
1. Contexte général Dans un contexte de transformation digitale et de modernisation de son système d’information, la GBU S&EM poursuit le déploiement de la plateforme Orchestrade , progiciel front-to-back de trading et de gestion des risques, développé en partenariat étroit avec l’éditeur. Afin d’accompagner un rythme soutenu de livraisons applicatives , un renforcement des équipes est nécessaire pour garantir la qualité, la fiabilité et la conformité de la chaîne applicative autour d’Orchestrade. 2. Objet de l’appel d’offres Le présent appel d’offres vise à sélectionner un(e) QA & Automation Engineer Junior capable d’intervenir sur les activités d’assurance qualité, d’automatisation des tests et d’amélioration continue, dans un environnement applicatif complexe intégrant des traitements batch et des pipelines CI/CD. 3. Périmètre de la mission3.1 Assurance qualité Le consultant interviendra sur les activités suivantes : Analyse des spécifications fonctionnelles et techniques Rédaction de cas de tests fonctionnels et techniques Exécution de campagnes de tests (fonctionnels, intégration, non-régression) Identification, qualification et documentation des anomalies Vérification de la conformité applicative vis-à-vis des exigences métiers et réglementaires Participation aux phases de recette applicative 3.2 Automatisation & scripting Développement et maintenance de scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests automatisés dans les chaînes CI/CD existantes 3.3 Usage de l’IA générative appliquée à la QA Réalisation de POCs rapides exploitant des outils d’IA générative Aide à la génération automatique de cas de tests Assistance à l’analyse et à la qualification des anomalies Optimisation de la couverture de tests Contribution aux initiatives d’amélioration continue autour du test intelligent 4. Environnement techniqueLangages & développement Python (scripting, automatisation, manipulation de données de test) C# / .NET (tests d’applications backend) Notions Front-end : HTML, CSS, JavaScript (visualisation, dashboards simples) Automatisation & intégration continue Outils de tests UI et/ou API Pipelines CI/CD (Git, Jenkins, GitLab CI ou équivalent) Ordonnancement & batch Automic ou outils équivalents Compréhension des traitements batch, flux applicatifs et dépendances IA & data (niveau notionnel) Intérêt marqué pour l’IA générative Notions de machine learning, NLP ou outils IA appliqués à la QA 5. Profil recherché Diplôme d’ingénieur en informatique, idéalement avec une spécialisation IA ou data Première expérience significative en : QA automatisation de tests support technico-fonctionnel (alternance acceptée) Capacité à évoluer dans des environnements applicatifs complexes Autonomie, adaptabilité et capacité à travailler sous contrainte de delivery
CDI
Freelance

Offre d'emploi
Software Engineer Python – Azure IA

Craftman data
Publiée le
AI
Azure AI
Azure AI Foundry

3 mois
Paris, France
Contexte de la mission Dans le cadre du développement de solutions d’Intelligence Artificielle sur Microsoft Azure, nous recherchons un Software Engineer Python avec une expérience de 3 a 5 ans disposant d’une première expérience (1 à 2 ans) sur des projets IA, idéalement en environnement Azure. Le collaborateur interviendra au sein d’une équipe cloud & data pour développer, intégrer et maintenir des solutions basées sur Azure OpenAI, Azure AI Services et Azure AI Search , dans un environnement structuré (Landing Zone, sécurité, CI/CD). La mission couvre principalement le développement, l’intégration et l’industrialisation technique de composants IA. Objectifs de la mission : • Développer des applications Python intégrant des services Azure IA • Contribuer à la mise en place de solutions RAG et LLM • Participer à l’industrialisation et à la mise en production sur Azure • Assurer la qualité, la performance et la maintenabilité du code • Monter progressivement en expertise sur l’écosystème Azure IA Responsabilités principales : 🔹 Développement Python & Intégration IA • Développer des APIs et services backend en Python (FastAPI, Flask ou équivalent) • Intégrer Azure OpenAI Service dans des applications métiers • Implémenter des pipelines de traitement de données (préparation, chunking, embeddings) • Participer à la mise en place d’architectures RAG simples • Intégrer Azure AI Search (vector search, indexation) • Manipuler des bases de données (SQL, NoSQL) 🔹 Industrialisation & Cloud : • Déployer des applications sur Azure (App Service, Container Apps, Functions) • Participer à la mise en place de pipelines CI/CD (Azure DevOps ou GitHub Actions) • Contribuer à la containerisation des applications (Docker) • Appliquer les bonnes pratiques de sécurité (Managed Identity, RBAC, gestion des secrets) • Participer aux déploiements multi-environnements (dev / test / prod) Qualité & Bonnes pratiques : • Rédiger du code propre, documenté et testé • Mettre en place des tests unitaires et d’intégration • Participer aux revues de code • Contribuer au monitoring et logging des applications • Documenter les développements techniques 🧩 Compétences techniques requises : 💻 Développement • Python (maîtrise opérationnelle) • Framework API (FastAPI, Flask ou Django) • Manipulation d’APIs REST • Git ☁️ Azure & IA • Connaissance de Azure OpenAI Service • Notions d’architectures LLM et RAG • Azure AI Search (notions vector search appréciées) • Azure Storage (Blob, Files) • Azure App Service / Functions / Container Apps • Bases en sécurité Azure (Entra ID, RBAC) 🔄 DevOps • Docker • CI/CD (Azure DevOps ou GitHub Actions) • Notions d’Infrastructure as Code (Terraform apprécié mais non obligatoire) 🤝 Soft skills & posture attendue • Esprit d’équipe et capacité à collaborer avec les équipes data et cloud • Rigueur technique et sens de la qualité • Curiosité technologique (veille IA & cloud) • Autonomie progressive • Capacité à comprendre un besoin métier et à le traduire techniquement 👤 Profil recherché • 3 à 5 ans d’expérience en développement Python • Première expérience sur un projet IA (chatbot, RAG, NLP, ML, etc.) • Connaissance pratique d’Azure appréciée • Diplôme Bac+5 (école d’ingénieur ou université) ou équivalent • Forte appétence pour l’IA et le cloud
Freelance
CDI

Offre d'emploi
Business Analyst

VISIAN
Publiée le
Business Analyst
Large Language Model (LLM)
Natural Language Processing (NLP)

1 an
40k-45k €
400-610 €
Paris, France
Descriptif du poste Contexte et mission Vous rejoindrez un programme d'IA de haut impact visant à construire un système agentique pour automatiser les workflows d'email dans le secteur financier. Ce programme transformera les processus manuels en workflows intelligents alimentés par l'IA générative, avec un objectif de réduction de 60%+ de l'effort manuel. Le système agentique comprendra : 1. Conversation Service : Conversion d'emails en données structurées, extraction d'entités et d'intentions 2. Prioritizer : Scoring basé sur le risque et gestion des SLA 3. Drafter : Réponses GenAI avec garde-fous de conformité 4. Summarizer : Distillation des threads et pistes d'audit Stack technologique : CrewAI, intégrations MCP/A2A/ACP, Python, SQL, APIs. Profil recherché Expérience requise 8+ ans en tant qu'analyste métier dans les services financiers (CIB, Opérations ou Risque de préférence) 3+ ans sur des projets IA/ML (ex. NLP, RPA, systèmes agentiques) avec focus sur l'automatisation des processus Expérience avec les workflows d'email, les opérations de trading ou le service client en banque Compétences obligatoires PhD ou équivalent 10+ ans en Data Science, 5+ ans en NLP/GenAI Expérience CrewAI Google ADK Connaissance MCP/A2A/ACP Déploiement d'IA en production Python, SQL, APIs Expérience dans l'industrie financière Publications ou brevets Anglais courant Compétences appréciées Expérience en finance Connaissance GDPR/MiFID Frameworks d'évaluation Contributions open-source Français et anglais courants
CDI
Freelance

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

6 mois
45k-60k €
550-600 €
Île-de-France, France
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

159 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous