Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 87 résultats.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer Python confirmé(e) (H/F) (Bordeaux)

skiils
Publiée le
Deep Learning
Docker
Kubernetes

1 an
10k-45k €
100-380 €
Bordeaux, Nouvelle-Aquitaine

skiils recrute un(e) Data Engineer / Python & Machine Learning confirmé(e) (H/F) pour rejoindre une équipe Data et accompagner les projets de déploiement et industrialisation de modèles ML ! Au cœur d’une mission transverse, tu participeras à l’amélioration et à l’industrialisation des workflows ML, en apportant ton expertise Python et en accompagnant les équipes DataScience dans les bonnes pratiques de développement. En tant que tel(le), ton rôle consistera à : Assister et déboguer les équipes DataScience , pour garantir la stabilité et la performance des modèles. Concevoir et industrialiser les processus de déploiement des modèles de Machine Learning , en appliquant les bonnes pratiques de CI/CD . Former et accompagner les Data Scientists aux bonnes pratiques de développement (Clean Code, SOLID, refactoring…). Automatiser les tests fonctionnels et optimiser le code Python pour améliorer fiabilité et performance. Participer à l’industrialisation du déploiement des applications , en maîtrisant l’ensemble du cycle de développement, du build jusqu’à la production. Proposer des améliorations techniques et accompagner les équipes dans l’adoption des solutions. Ton environnement Tu évolueras au sein d’une équipe Data, sur des projets Machine Learning et Python, en interaction directe avec les Data Scientists pour diffuser les bonnes pratiques et optimiser l’industrialisation des modèles.

Freelance
CDI

Offre d'emploi
Data Engineer Python / Spark

HIGHTEAM
Publiée le
Git
Machine Learning
PySpark

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum

Freelance

Mission freelance
Data Scientist expert Octroi de Crédit et Risque de Crédit

Freelance.com
Publiée le
AWS Cloud
Data science
Machine Learning

12 mois
600 €
Maisons-Alfort, Île-de-France

Contexte Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme comporte plusieurs objectifs, dont celui de proposer des fonctionnalités utilisant de l’IA afin d’améliorer des processus ou produits existants. C’est dans ce contexte que l’équipe IALAB, au sein de la Direction Data, participe à l’exploration et la création d’indicateurs permettant de mieux appréhender le comportement des entreprises et l'appréciation du risque financier. Missions Dans le cadre de l’intégration d’algorithmes IA sur nos plateformes digitales d’octroi de crédits, le profil recherché aura la responsabilité de : • Analyser et comprendre en profondeur les objectifs et les exigences du projet en se basant sur les spécifications techniques et fonctionnelles • Proposer des nouveaux indicateurs en se basant sur les données existantes (données comptables, bancaires) • Etudier et fournir les éléments de décision pour intégrer des nouvelles sources de données alternatives afin de mieux apprécier le risque de défaut d’une entreprise • Echanger d’une manière régulière avec les différentes parties prenantes du projet et être force de proposition pour les besoins des parcours digitaux et des métiers • Superviser les performances des APIs et des algorithmes déployés en assurant un suivi rigoureux et régulier • Proposer des outils et des méthodes d’analyse pour une détection rapide des anomalies et problèmes • Evaluer régulièrement les résultats et les retours du projet afin d’identifier les axes d’améliorations et les opportunités d'optimisation • Contribuer à la documentation technique et fonctionnelle relative à l’architecture, aux APIs et aux algorithmes déployés Compétences métier • Appétence pour les problématiques bancaires et compréhension des enjeux • Connaissance des processus bancaires et plus spécifiquement d’octroi de crédit • Connaissance des indicateurs clés de bonne santé financière d’une entreprise • Bonne connaissance des données liées aux entreprises et des données open data associées • Très bonne connaissance des algorithmes de machine Learning et capacité à les appliquer pour résoudre des problèmes complexes • Aptitude à comprendre les problèmes techniques et à proposer des solutions adaptées • Capacité à communiquer de manière efficace avec différentes parties prenantes et à comprendre leurs besoins fonctionnels et techniques • Compétence dans la rédaction de documentation technique et fonctionnelle de qualité • Connaissance des APIs et de l’écosystème cloud de préférence AWS • Travail en méthodologie Agile • Expérience dans l’anticipation des écueils des projets de machine learning Liste des technologies • Python • Librairies Python de machine learning • Librairies de visualisation (ex plotly) et d’applications web type Dash ou Streamlit • Git Points critiques et différenciants PO au sein de l'IA LAB sujet au tour de l'Ia, de l'IA G solutions a créer et apporter pour les métiers Métier : octroi de crédit, l'octroi digital : dev d'une plateforme digitale et en ligne : besoin pour renforcer cette équipe offre dédiée aux PMEs, gros risques profil imaginatif explorer la data, trouver des solutions Data Scientist : - academique : - maitrise de la stack technique : machine Learning, python, libraire python, cloud AWS - SAFe / Scrum à minima - spécificité : connaissance octroi de crédit, risque de défaut, savoir analyser les données financières d'une entreprise, qqun capable de prendre du recul, maitrise des enjeux, appréciation des risques - où chercher / comment chercher des solutions - souple sur l'expérience Background CV : - expé en environnement bancaire et risque de crédit

CDI

Offre d'emploi
Data Engineer Look ML

Fnac Darty
Publiée le

60k-70k €
Ivry-sur-Seine, Île-de-France

En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.

Freelance

Mission freelance
Consultant Data Science

Cherry Pick
Publiée le
Machine Learning
Pandas
Python

6 mois
550-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Consultant Data Science - 21/07" pour un client dans le secteur de XXX Description 🔎 Contexte Au sein de la direction Gaz, le consultant interviendra sur plusieurs projets d’innovation data ayant pour objectif d’améliorer : L’efficacité opérationnelle, La connaissance client, Et la performance des processus de facturation et de communication. 🎯 Objectifs & Livrables Exemples de cas d’usage : Optimisation des mensualisations Prédiction du volume d’opérations de facturation Segmentation des courbes de consommation clients (B2C) Modélisation des meilleurs moments d’interaction client Livrables attendus : Analyses exploratoires (facturation, contrats, consommation…) Développement de modèles ML (prévision, clustering, recommandation) Scripts industrialisables en Python / SQL Dashboards (Power BI, Tableau) Documentation technique & fonctionnelle Présentations claires aux parties prenantes métiers 🧠 Compétences recherchées CompétenceNiveau requisPython (pandas, scikit-learn)ConfirméSQLConfirméMachine LearningConfirméDataViz (Power BI ou Tableau)ConfirméCloud (Azure ou GCP)AppréciéModélisation prédictive / segmentationConfirméContexte B2C ou énergieApprécié 🎓 Profil Bac+5 en data science, statistiques, mathématiques appliquées 2 à 5 ans d'expérience Bon communicant, capable de vulgariser ses analyses Esprit d'équipe, autonomie et sens de l’innovation 💡 Environnement de mission Équipe innovation rattachée aux projets data stratégiques Données issues de systèmes métiers complexes (CRM, contrats, facturation…) Interactions fréquentes avec les métiers, IT et autres pôles data

Freelance

Mission freelance
IA Engineer Python Golang

VISIAN
Publiée le
Go (langage)
Machine Learning
Python

1 an
400-610 €
Levallois-Perret, Île-de-France

Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien.

Freelance

Mission freelance
Architecte IA

VISIAN
Publiée le
API
DevSecOps
Docker

1 an
400-680 €
Montreuil, Île-de-France

Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow Environnement de travail: - Team Play avant tout! - Curiosite sans limites!! … - Autonomie, rigueur, qualite. - Sens du service client. - Patience & bienveillance. - Appetance naturelle pour le partage de connaissances. - l'automatisation dans le sang. - Anglais courant (fournisseurs et clients en dehors de france, base documentaire entierement en Anglais) - Laptops au choix (MacOS, Windows)

Freelance
CDI

Offre d'emploi
Architecte IA

VISIAN
Publiée le
DevOps
Docker
Kubernetes

1 an
40k-45k €
400-720 €
Montreuil, Île-de-France

Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Générative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement Technique Docker / Kubernetes / OpenShift / Cloud / Bare Metal Programmation en Python Shell scripting GPU Computing Outils de CI/CD DevSecOps/GitOps Hashicorp Vault GitLab GitLab-CI Kaniko Keycloak Ansible Artifactory ArgoCD Argo Workflow

Freelance

Mission freelance
Expert IA

Cherry Pick
Publiée le
Azure
Machine Learning

2 mois
550-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Expert IA" pour un client dans le secteur du retail. Description 🎯 Contexte & Objectif de la mission Dans le cadre d’un projet d’exploration et de mise en œuvre de solutions IA agentiques, le groupe recherche un expert des plateformes agentiques pour une mission de conseil stratégique et d’implémentation. L’objectif est d’évaluer, comparer et tester plusieurs solutions d’agents autonomes afin d’identifier celles répondant aux besoins internes, tout en tenant compte des contraintes d’infrastructure, de sécurité et d’environnement technique Microsoft (Azure). 🔍 Missions Réalisation d’un benchmark détaillé des principales plateformes agentiques du marché Participation à la conception de 2 use cases par plateforme retenue Études de faisabilité : contraintes techniques, sécurité, compatibilité Azure Définition d’une stratégie d’intégration à l’environnement Microsoft Accompagnement à la création d’agents intelligents et simulation de scénarios Livraison de documents structurés et exploitables (fiches comparatives, études, recommandations) Réalisation de POCs (proof of concept) par solution retenue Possible intervention sur : animation d’ateliers, exploration métier, rencontre client ou interne

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance
CDI

Offre d'emploi
DATA SCIENCE / MACHINE LEARNING ENGINEER H/F

HIGHTEAM
Publiée le
Scala

3 ans
Île-de-France, France

Nous recherchons un(e) DATA SCIENCE / MACHINE LEARNING ENGINEER pour l'un de nos clients grand compte. Missions : - Travaux de Data Science. - Fouille de données et mise en place de modèle Machine Learning). - Développement de programmes de traitements de données (micro-services) en Python/Spark - Développement d'algorithmes Machine Learning dans un contexte de Big Data Expertise : o Création, entrainement, optimisation, et mise en production de modèle o Données tabulaires à grande volumétrie avec des données déséquilibrées (imbalanced) o Secteur banque/finance -> problématique de détection de fraude / AML Stack technique python, scala, spark, git, linux Base de données : hbase, PostgreSQL, ElasticSearch DS : Pandas, PySpark, H2O, MLOPS, NLP, ML

Freelance

Mission freelance
Data Scientist IA GEN

ALLEGIS GROUP
Publiée le
Data science
Large Language Model (LLM)
Machine Learning

3 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes

TEKsystems recherche pour l'un de ses clients grands comptes un Data Scientist IA GEN: Contexte : Monter la cellule IA Interne + Externe Récupération des BU maintenance prédictives Gestions des prix Chatbot service compta Renforcement des équipes expertises L'objet de cette consultation est pour s’entourer de data scientists externes permettant l’analyse de besoin métier et le développement d’application IA (Intelligence Artificielle), ML (Machine Learning), DL (Deep Learning), IA GEN (Intelligence Artificielle Générative)

Freelance

Mission freelance
POT8602-Un Data scientiste sur Grenoble

Almatek
Publiée le
Python

6 mois
270-360 €
Grenoble, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks

Freelance
CDI

Offre d'emploi
Expert ELK

KLETA
Publiée le
ELK

3 ans
Paris, France

Un acteur majeur refond entièrement son architecture ELK et cherche un expert capable de piloter ce projet ambitieux. L’objectif ? Repenser l’architecture existante pour migrer vers la dernière version ELK, tout en optimisant et en consolidant l’ensemble des clusters, y compris une forte croissance des nœuds de Machine Learning. Ce que vous ferez : Repenser l’architecture ELK pour optimiser la performance et assurer une migration vers les dernières versions. Piloter et assurer l’intégration des nœuds de Machine Learning en pleine croissance. Participer activement aux décisions stratégiques tout en gardant les mains dans la technique. Résoudre des problématiques complexes d’un environnement distribué en production.

Freelance

Mission freelance
MLOps Senior (h/f)

emagine Consulting SARL
Publiée le

12 mois
400-550 €
95000, Cergy, Île-de-France

emagine recherche pour l’un de ses clients grand compte un MLOps Senior. Durée : >12 Mois Lieu : 95 Télétravail : Hybride Démarrage : ASAP Résumé Le rôle principal consiste à industrialiser et optimiser des modules d'une application de Pricing & Revenue Management en utilisant des pratiques MLOps sur une infrastructure cloud sécurisée. Responsabilités : * Planifier, exécuter et superviser l'industrialisation de l'application dans le cloud. * Optimiser la performance de l'application en prenant en compte la scalabilité, la latence et les coûts. * Développer et implémenter des pipelines CI/CD robustes pour les modèles de machine learning. Must Haves : * Expérience en MLOps et compréhension des principes de CI/CD. * Maîtrise des infrastructures cloud, notamment Google Cloud Platform (GCP). * Compétences en optimisation des performances des applications cloud. Nice to Haves : * Connaissance des aspects FinOps pour la gestion des coûts dans le cloud. * Expérience avec des modèles de machine learning complexes. Other Details : * Organisation : Une centaine de personnes entre le site et les groupes filiales avec des compétences mathématiques appliquées, y compris des Ingénieurs en RO, Data scientists, MLOps, DevOps. * Technologie : Application déployée sur un cluster Kub on-premise et GCP, incluant des considérations de scalabilité et d'optimisation de la performance.

Freelance

Mission freelance
Product Owner IA

Signe +
Publiée le
Agile Scrum

6 mois
400-620 €
Grenoble, Auvergne-Rhône-Alpes

Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

87 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous