Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 50 résultats.
Freelance

Mission freelance
QA orienté IA

SQLI
Publiée le
QA

6 mois
400-500 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients parisiens dans le secteur de l'édition, je suis à la recherche d'un QA avec un verni IA. La mission s'articule sous le cadre du développement de leurs projets basés sur l’IA, ils recherchent donc un QA Engineer passionné par l’innovation et la qualité logicielle . Le client souhaite monter une cellule QA en transverse (web/mobile /e-com...) avec à minima un QA lead en front & par la suite, y ajouter 1 ou 2 testeurs selon développement de la cellule visée. Volonté de mettre de l'IA au service du test Vous interviendrez sur la validation de modèles d’IA, l’automatisation des tests et l’amélioration continue des pipelines ML.

Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

skiils
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France

Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps

CDI
Freelance

Offre d'emploi
Project Manager - Data & AI

Signe +
Publiée le
AI

24 mois
45k-50k €
322-500 €
Paris, France

Compétences techniques : Expertise on Generative AI, machine learning, and related technologies. Expertise in PMP, PRINCE2, or similar is preferred. Proficiency in project management tools and methodologies. Familiarity with the insurance industry or related sectors (claims, underwriting, health) is advantageous. Compétences autres : Proven expertise in project management within AI, data science, or technology-driven environments. Expertise managing cross-functional teams and multiple workstreams. Stakeholder management and organizational expertise Strategic and problem-solving expertise . English environment Innovative environment Site : Paris, 2 jours/ semaine sur site Prix d'achat max : 780 €HT Date de démarrage : asap Durée mission : 14 mois (fin 31/12/2026) Profil : Project Manager – Data& AI Anglais obligatoire

Freelance

Mission freelance
Expert Dataiku F/H

WINSIDE Technology
Publiée le
Dataiku
MySQL

3 ans
500-650 €
Paris, France

En tant que Expert Dataiku, vous jouerez un rôle central dans l'exploitation de la plateforme Dataiku pour concevoir, industrialiser et déployer des solutions data à forte valeur ajoutée. V ous interviendrez de la modélisation à la mise en production, en étroite collaboration avec les équipes data, IT et métier. Vos responsabilités - Développer, entraîner et optimiser des modèles prédictifs (machine learning / deep learning) - Concevoir des workflows avancés dans Dataiku (DSS), avec une attention particulière à la qualité des données, à la reproductibilité et à l'industrialisation - Automatiser les traitements de données et gérer les pipelines (Data Preparation, Feature Engineering) - Collaborer avec les équipes métier pour identifier les cas d'usage data pertinents - Documenter les projets et garantir la maintenabilité des solutions - Former et accompagner les utilisateurs internes à la prise en main de Dataiku - Assurer une veille technique et partager les bonnes pratiques Les plus du poste : - Environnement Collaboratif : projets innovants favorisant le partage des connaissances. - Accompagnement individualisé et de proximité : formations certifiantes, attribution d'un Career Manager pour vous orienter dans votre trajectoire professionnelle, opportunités d'évolution de carrière. - Flexibilité du Travail : Télétravail et horaires flexibles pour votre équilibre vie professionnelle-personnelle. - Rémunération Compétitive : Salaire compétitif avec des avantages sociaux attrayants. - Mobilité : Possibilité de mobilité à Paris, Lyon ou Aix-en-Provence offrant des expériences diversifiées au sein de Lincoln.

Freelance

Mission freelance
Tech Lead DATA AZURE / OpenAI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure

6 mois
Paris, France

Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires

Freelance

Mission freelance
Data Engineer confirmé

SQLI
Publiée le
Azure Data Factory

6 mois
400-500 €
Paris, France

Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),

Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Publiée le

10 mois
580-635 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Freelance
CDD

Offre d'emploi
Data Scientist

Ailancy Technology
Publiée le
CI/CD
Databricks
Deep Learning

1 an
40k-45k €
400-550 €
Paris, France

Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

CDI

Offre d'emploi
Data Scientist Assurance

REDLAB
Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

Freelance
CDI

Offre d'emploi
Senior AI Engineer

UCASE CONSULTING
Publiée le
IA Générative
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients, un TechLead AI : Missions principales : • Accompagner les AI / ML Engineers de l’équipe sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien. • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance. • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale. • Participer aux analyses, études d’impacts et cadrage techniques. • Concevoir des solutions industrialisées en respectant les bonnes pratiques d’architecture AI / ML et développement. • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe. • Réaliser le développement de nouveaux produits IA et assurer la maintenance évolutive et corrective des produits existants • Rédiger la documentation technique • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impacts techniques • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : • Langages de programmation : Python, SQL • Utilisation de plateformes pour le développement et le déploiement des modèles d’IA : Docker, Kubernetes, Helm • Maitrise des frameworks de developpement d'application IA: Langgraph, ADK, Hugging Face, Guardrails, FastAPI • Maitrise des services data et IA de GCP : GCP BigQuery, VertexAI, Cloud storage, GKE • Maitrise des enjeux de securité liés au déploiement de modèles d'IA générative. • Maîtrise du déploiement et de la mise en production des modèles LLM open source. • Maitrise des plateformes d’IA Gen, de leur installation à l’opération des modèles • Maitrise des bases de données vectorielles : PGVector

Freelance

Mission freelance
Consultant Cybersécurité – Expert Splunk (Global Security Operations Center – GSOC)

ABTEKA
Publiée le
Splunk

1 an
460-570 €
Paris, France

Contexte de la mission La mission s’inscrit au sein d’un Global Security Operations Center (GSOC), plus précisément dans l’équipe Détection & Automatisation. Le consultant jouera un rôle clé dans la gestion et l’optimisation d’une plateforme Splunk (environ 8 To de données par jour) utilisée pour la surveillance cybersécurité et la réponse aux incidents. Il collaborera étroitement avec les équipes CERT, MSSP et analystes SOC afin de renforcer la supervision, l’automatisation et la fiabilité de l’environnement de cybersécurité. En raison des activités 24h/24 et 7j/7 du GSOC, le poste inclut une astreinte tournante (1 semaine par mois). Objectifs et livrables Missions principales : Administrer et gérer les accès utilisateurs au sein de la plateforme Splunk. Assurer la maintenance régulière et la stabilité de la plateforme. Concevoir et générer des rapports et tableaux de bord pour les besoins opérationnels et de sécurité. Gérer les flux d’ingestion de données et superviser l’intégration des sources de logs et équipements dans Splunk. Garantir la qualité, la cohérence et la fiabilité des données collectées. Restaurer la collecte de logs en cas de perte ou d’interruption. Communiquer efficacement avec les équipes internes et clients externes, en français et en anglais. Contribuer à l’extension et à l’évolution de la couverture de détection. Participer à l’automatisation des processus d’intégration et de contrôle qualité des données. Rédiger des documentations techniques et guides utilisateurs. Participer à l’astreinte mutualisée (équipe de 6 personnes) pour Splunk et outils associés. Accompagner les projets de migration et de transformation liés à Splunk ou aux systèmes de collecte. Développer et déployer des algorithmes de machine learning pour améliorer les capacités d’analyse et de détection. Contribuer à la création de règles de détection cybersécurité et à la mise en œuvre de cas d’usage. Proposer des améliorations continues des outils, procédures et processus de réponse aux incidents. Construire des tableaux de bord et définir des indicateurs de performance (KPI) de sécurité. Participer activement aux communautés internes de sécurité et partager les bonnes pratiques.

Freelance

Mission freelance
Analyste SOC Splunk

Cherry Pick
Publiée le
CrowdStrike
Splunk

12 mois
530-580 €
Paris, France

Description de la mission : Le consultant interviendra au sein d'une équipe CyberSOC pour analyser, investiguer et traiter les incidents de sécurité. Il sera chargé de fournir et appliquer des plans de remédiation, de contribuer à l'amélioration continue et à l'optimisation des outils, règles de détection et scripts d'automatisation. Il participera à la mise en place de projets innovants sur Splunk (RBA, Machine Learning Toolkit) afin d'optimiser la couverture de détection. Le consultant assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Il produira des rapports réguliers sur ses activités et maintiendra les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : Analyse, investigation et traitement des incidents de sécurité Fourniture et application de plans de remédiation Amélioration continue et optimisation des outils, règles de détection et scripting pour automatisation Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning Toolkit) Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Production de rapports réguliers sur les activités Maintien des bases de connaissances (Confluence, Git, SharePoint) Compétences requises : Compétences solides sur Splunk (certification PowerUser appréciée) Maîtrise de MITRE DETECT & DEFEND Bonnes connaissances des solutions EDR (Crowdstrike, XDR PA, MDE) Maîtrise des bases en analyse de malwares, rétro-conception et analyse post-mortem Connaissance du renseignement cyber et des formats de partage (STIX, OpenIOC) Connaissances sur les TIP (MISP, OpenCTI, ThreatQuotient, etc.) Connaissances sur les tactiques, techniques et procédures (TTPs) des attaquants

Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France

Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe

Freelance
CDI

Offre d'emploi
Expert ELK

KLETA
Publiée le
ELK

3 ans
Paris, France

Un acteur majeur refond entièrement son architecture ELK et cherche un expert capable de piloter ce projet ambitieux. L’objectif ? Repenser l’architecture existante pour migrer vers la dernière version ELK, tout en optimisant et en consolidant l’ensemble des clusters, y compris une forte croissance des nœuds de Machine Learning. Ce que vous ferez : Repenser l’architecture ELK pour optimiser la performance et assurer une migration vers les dernières versions. Piloter et assurer l’intégration des nœuds de Machine Learning en pleine croissance. Participer activement aux décisions stratégiques tout en gardant les mains dans la technique. Résoudre des problématiques complexes d’un environnement distribué en production.

CDI

Offre d'emploi
Data Architect

Inventiv IT
Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Freelance

Mission freelance
Administrer Devops plateforme Data Azure

SKILLWISE
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 an
100-600 €
Paris, France

Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

50 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous