Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 25 résultats.
Suivant
Freelance

Mission freelance
Machine Learning Engineer

SKILLWISE
Publiée le
Azure
DevOps
Kubernetes

3 mois
400-550 €
Paris, France

Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique

Freelance

Mission freelance
Machine Learning Engineer Lead Expert

Codezys
Publiée le
Docker
Git
Python

6 mois
Paris, France

Métiers et Fonctions : Data Management Machine Learning Engineer Spécialités technologiques : Cloud Big Data Machine Learning Simulation Deep Learning Type de facturation : Assistance Technique (facturation au taux journalier) Compétences clés : Technologies et outils : AWS (5 ans), Docker, Pytorch, GIT, CI/CD, Xarray, Python (5 ans) Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Langues : Anglais (courant / professionnel) Secteur d'activité : Assurance Description et livrables de la prestation : Projet dans le secteur de l'assurance visant à développer des modèles d'IA pour analyser les événements climatiques extrêmes, notamment par la simulation météo pour évaluer les risques de catastrophes. La mission implique : Produire, gérer et optimiser le code et les données pour l'équipe R&D Refactoriser, structurer et documenter une bibliothèque Python existante pour simulations, inférence et analyse Développer des pipelines pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, y compris sur GPU Appliquer les bonnes pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité) Optimiser l’utilisation de serveurs multi-GPU pour les simulations et entraînements IA à grande échelle Former et accompagner l’équipe sur le développement scientifique et l’usage des GPU

Freelance

Mission freelance
Machine Learning Engineer Lead Expert

Codezys
Publiée le
Apache Airflow
Cloud
Docker

6 mois
Paris, France

Métier : Data Management, Machine Learning Engineer Spécialités technologiques : Cloud, Deep Learning, Machine Learning, Big Data, Simulation Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : GIT, CI/CD, Pytorch, Python (5 ans), Xarray, AWS (5 ans), Docker Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Secteur d'activité : Assurance Description de la prestation : Projet dans le secteur de l’assurance pour un Machine Learning Engineer Lead Expert spécialisé en recherche appliquée sur les événements climatiques extrêmes utilisant des modèles d’IA. Travail sur des simulations météo pour identifier les risques de catastrophes et développer des modèles de Machine Learning avec gestion de big data et code Python. Responsabilités principales : Fournir et gérer du code et des données de qualité pour l’équipe R&D. Refactoriser, structurer et documenter la bibliothèque Python pour les simulations, inférence et analyse. Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, notamment sur GPU. Appliquer les meilleures pratiques de développement logiciel scientifique : tests, CI/CD, conception modulaire, reproductibilité. Optimiser l’utilisation de serveurs multi-GPU pour des entraînements IA à grande échelle. Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et l’utilisation des GPU.

Freelance

Mission freelance
Machine Learning Engineer Lead Expert

KEONI CONSULTING
Publiée le
AWS Cloud
Python
Pytorch

18 mois
100-500 €
Paris, France

CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code

Freelance

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Cherry Pick
Publiée le
AI
AWS Cloud
Azure

1 an
510-570 €
Paris, France

Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).

Freelance
CDI

Offre d'emploi
Machine learning engineer sénior

skiils
Publiée le
Computer vision
Large Language Model (LLM)
Machine Learning

12 jours
40k-81k €
400-650 €
Paris, France

Le consultant interviendra comme Senior Machine Learning Engineer , avec un rôle clé dans la conception, le développement et le déploiement de solutions ML appliquées aux magasins Decathlon dans le monde entier. Domaines d’application : Computer Vision LLMs (Large Language Models) Prévision de séries temporelles (time series forecasting) Détection d’anomalies Role: Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production industrialisée). Travailler avec de larges datasets : qualité, preprocessing, feature engineering. Optimiser les performances des modèles et industrialiser via les pratiques MLOps . Contribuer à des projets innovants (vision, NLP, forecasting, anomalies). Assurer une veille continue sur les algorithmes et outils ML. Collaborer pour transformer les besoins en solutions scalables. Mentorer les profils juniors (DS, AI engineers).

Freelance

Mission freelance
Consultant Data Science

Cherry Pick
Publiée le
Machine Learning
Pandas
Python

6 mois
550-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Consultant Data Science - 21/07" pour un client dans le secteur de XXX Description 🔎 Contexte Au sein de la direction Gaz, le consultant interviendra sur plusieurs projets d’innovation data ayant pour objectif d’améliorer : L’efficacité opérationnelle, La connaissance client, Et la performance des processus de facturation et de communication. 🎯 Objectifs & Livrables Exemples de cas d’usage : Optimisation des mensualisations Prédiction du volume d’opérations de facturation Segmentation des courbes de consommation clients (B2C) Modélisation des meilleurs moments d’interaction client Livrables attendus : Analyses exploratoires (facturation, contrats, consommation…) Développement de modèles ML (prévision, clustering, recommandation) Scripts industrialisables en Python / SQL Dashboards (Power BI, Tableau) Documentation technique & fonctionnelle Présentations claires aux parties prenantes métiers 🧠 Compétences recherchées CompétenceNiveau requisPython (pandas, scikit-learn)ConfirméSQLConfirméMachine LearningConfirméDataViz (Power BI ou Tableau)ConfirméCloud (Azure ou GCP)AppréciéModélisation prédictive / segmentationConfirméContexte B2C ou énergieApprécié 🎓 Profil Bac+5 en data science, statistiques, mathématiques appliquées 2 à 5 ans d'expérience Bon communicant, capable de vulgariser ses analyses Esprit d'équipe, autonomie et sens de l’innovation 💡 Environnement de mission Équipe innovation rattachée aux projets data stratégiques Données issues de systèmes métiers complexes (CRM, contrats, facturation…) Interactions fréquentes avec les métiers, IT et autres pôles data

Freelance

Mission freelance
Expert IA

Cherry Pick
Publiée le
Azure
Machine Learning

2 mois
550-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Expert IA" pour un client dans le secteur du retail. Description 🎯 Contexte & Objectif de la mission Dans le cadre d’un projet d’exploration et de mise en œuvre de solutions IA agentiques, le groupe recherche un expert des plateformes agentiques pour une mission de conseil stratégique et d’implémentation. L’objectif est d’évaluer, comparer et tester plusieurs solutions d’agents autonomes afin d’identifier celles répondant aux besoins internes, tout en tenant compte des contraintes d’infrastructure, de sécurité et d’environnement technique Microsoft (Azure). 🔍 Missions Réalisation d’un benchmark détaillé des principales plateformes agentiques du marché Participation à la conception de 2 use cases par plateforme retenue Études de faisabilité : contraintes techniques, sécurité, compatibilité Azure Définition d’une stratégie d’intégration à l’environnement Microsoft Accompagnement à la création d’agents intelligents et simulation de scénarios Livraison de documents structurés et exploitables (fiches comparatives, études, recommandations) Réalisation de POCs (proof of concept) par solution retenue Possible intervention sur : animation d’ateliers, exploration métier, rencontre client ou interne

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance
CDI

Offre d'emploi
Expert ELK

KLETA
Publiée le
ELK

3 ans
Paris, France

Un acteur majeur refond entièrement son architecture ELK et cherche un expert capable de piloter ce projet ambitieux. L’objectif ? Repenser l’architecture existante pour migrer vers la dernière version ELK, tout en optimisant et en consolidant l’ensemble des clusters, y compris une forte croissance des nœuds de Machine Learning. Ce que vous ferez : Repenser l’architecture ELK pour optimiser la performance et assurer une migration vers les dernières versions. Piloter et assurer l’intégration des nœuds de Machine Learning en pleine croissance. Participer activement aux décisions stratégiques tout en gardant les mains dans la technique. Résoudre des problématiques complexes d’un environnement distribué en production.

Freelance

Mission freelance
MLOps / Azure AI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure
OpenAPI
Python

12 mois
Paris, France

Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)

Accelite
Publiée le
AI
Alteryx
Apache Spark

1 an
Paris, France

En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans

Freelance

Mission freelance
Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory

Signe +
Publiée le
Python

6 mois
550 €
Paris, France

Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.

CDI

Offre d'emploi
DATA ANALYST (JAPONAIS COURANT )CDI UNIQUEMENT

ADJAS
Publiée le
Algorithmique
Git
Natural Language Processing (NLP)

Paris, France

Bonjour, Offre d'emploi !!! ✅ Pour notre partenaire à Paris nous sommes à la recherche Data Analyst en CDI parlant japonais couramment. 💢 Poste à Paris Télétravail 2 jours/semaine Démarrage ASAP Le profil : Locuteur natif japonais, niveau d’anglais B2+ ; le français est un atout mais reste optionnel. Solide expérience dans le domaine DATA. (minimum 5 ans d'expérience) Expertise en tant que Data Scientist ou dans un rôle similaire, incluant l’extraction et l’analyse de données, la modélisation statistique et la communication efficace des résultats. Compétences Techniques : Python, SQL, Git, Deep Learning, modélisation statistique, algorithmes (y compris Machine Learning), algorithmes NLP, ainsi que dans l’application / l’adaptation / le développement de solutions LLM et GenAI ✔️ Merci à vous et bonne journée

Freelance

Mission freelance
Architecte Technique IA Senior

ATRIUM SI
Publiée le
AI

12 mois
Paris, France

Vous interviendrez sur des projets IA concrets et stratégiques, en vous concentrant sur l'automatisation de tâches administratives répétitives. Dans un premier temps, l'objectif principal sera de remplacer un gestionnaire humain pour des opérations telles que le contrôle et la validation de documents lors de souscriptions contractuelles (par exemple : vérification de conformité, extraction d'informations clés, détection d'anomalies). Par la suite, la mission pourra s'étendre à d'autres initiatives IA innovantes, en exploitant les capacités de calcul avancées de notre infrastructure. Nous recherchons un profil expert, capable de concevoir et implémenter des architectures IA robustes, allant au-delà des simples interactions avec des outils comme ChatGPT. L'accent sera mis sur des sujets réels d'IA, impliquant du machine learning avancé, des agents intelligents et des méthodes de planification probabiliste. Responsabilités Principales : Concevoir et architecturer des solutions IA scalables pour l'automatisation de processus administratifs dans le secteur de la gestion de patrimoine et de l'assurance-vie. Développer des modèles de machine learning pour des tâches spécifiques, telles que l'analyse de documents, la détection de fraudes ou l'optimisation de workflows. Intégrer des concepts théoriques avancés, incluant les agents IA (multi-agents systems), les méthodes de Monte Carlo Planning (MCP) et d'autres approches probabilistes ou d'apprentissage par renforcement. Collaborer avec les équipes internes pour exploiter l'infrastructure existante (12 GPU H200) et assurer une implémentation performante et sécurisée. Effectuer des audits et des optimisations pour garantir la fiabilité, la scalabilité et la conformité réglementaire des solutions (RGPD, normes du secteur financier). Fournir des recommandations stratégiques sur l'évolution des projets IA, en identifiant de nouvelles opportunités d'automatisation.

CDI

Offre d'emploi
Data Scientist Senior

REDLAB
Publiée le
Docker
Git
Modèle Logique des Données (MLD)

40k-45k €
Paris, France

Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)

Suivant

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

25 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous