Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning
Ce qu’il faut savoir sur Machine Learning
Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.
            Mission freelance
            
        Consultant sécurité SPLUNK - LYON uniquement 
      
 Déployer et configurer Splunk et Splunk Enterprise Security (ES) Créer des règles de détection, scheduled searches et drilldowns Gérer les droits via Risk-Based Alerting (RBA) Concevoir et mettre en place des dashboards adaptés aux besoins métier Exploiter le Machine Learning Toolkit (MLTK) pour améliorer la détection Assurer la planification et le suivi des projets de sécurité Travailler en autonomie et prendre en charge les sujets de bout en bout Collaborer avec l’équipe et partager les connaissances
 
            Offre d'emploi
            
        Lead data (H/F)
      
 Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
 
            Offre d'emploi
            
        Project Manager - Data & AI
      
 Compétences techniques : Expertise on Generative AI, machine learning, and related technologies. Expertise in PMP, PRINCE2, or similar is preferred. Proficiency in project management tools and methodologies. Familiarity with the insurance industry or related sectors (claims, underwriting, health) is advantageous. Compétences autres : Proven expertise in project management within AI, data science, or technology-driven environments. Expertise managing cross-functional teams and multiple workstreams. Stakeholder management and organizational expertise Strategic and problem-solving expertise . English environment Innovative environment Site : Paris, 2 jours/ semaine sur site Prix d'achat max : 780 €HT Date de démarrage : asap Durée mission : 14 mois (fin 31/12/2026) Profil : Project Manager – Data& AI Anglais obligatoire
 
            Offre d'emploi
            
        Data Scientist Senior – E-commerce Opération (H/F)
      
 Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
 
            Mission freelance
            
        229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)
      
 Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
 
            Offre d'emploi
            
        Ingénieur Data / IA – Automatisation de la vérification des données GxP (H/F)
      
 Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Data / IA pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans la région Auvergne-Rhône-Alpes (Annecy). À ce titre, vos missions quotidiennes seront les suivantes : - Mettre en place un Proof of Concept (POC) visant à utiliser l'Intelligence Artificielle (IA) pour automatiser la double vérification et la fiabilisation des données sensibles issues du laboratoire et du service R&D (cahiers de laboratoire, bases SQL, images, etc.), dans un environnement réglementé GxP / GAMP ; - Analyser les différentes sources de données et en évaluer la qualité et la structure ; - Concevoir et développer un prototype IA intégrant des techniques de data processing, machine learning ou computer vision ; - Documenter les développements et les tests conformément aux exigences GxP / GAMP 5 ; - Collaborer étroitement avec le Responsable R&D et le service Qualité / Validation pour garantir la conformité du POC. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
 
            Mission freelance
            
        Développeur fullstack - Data/IA (H/F)
      
 Notre client dans le secteur Santé et pharma recherche un/une Data / IA Engineer (H/F ) Description de la mission : Dans le cadre de nouveaux projets, notre client va rechercher un freelance expérimenté sur la partie Data. Vous interviendrez au sein de l'équipe Data intégration en tant que Data / IA Engineer. Vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Vos missions seront les suivantes : Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. (Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA.
            Offre d'emploi
            
        Chef de projet IA
      
 Métiers et Fonctions Métier : Pilotage de projet ou de programme Fonction : Chef de projet Spécialités technologiques RGPD Intelligence Artificielle (AI) Machine Learning Type de prestation Assistance Technique, facturation au taux journalier (TJM selon profil) Compétences requises Technologies et outils : Python, CI/CD, AWS, Docker Méthodes / Normes : Intégration continue Soft skills : Autonomie, force de proposition Langues : Anglais Description et livrables Le rôle de Chef de Projet consiste principalement à : Participer à la définition du besoin métier (challenge, business analyse, ROI) Organiser et piloter un portefeuille de projets avec des interlocuteurs internes ou externes Garantir le respect du planning, depuis l’étude d’opportunité jusqu’à la mise en œuvre en passant par le cadrage détaillé Assurer la conformité des fonctionnalités avec les besoins des directions Suivre le budget mensuel, contrôlant les consumés et le reste à faire Veiller au respect des procédures d’assurance qualité (instances, documentation, etc.) Être le référent technique auprès des interlocuteurs (architectes, infrastructure, Techlead, etc.) Préparer, animer et faire le compte rendu des réunions et ateliers Prendre en charge de manière autonome les projets de leur lancement à leur mise en production Proposer des améliorations des processus internes
            Offre d'emploi
            
        Data Scientist
      
 En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
 
            Offre d'emploi
            
        Expert Databricks - Secteur public H/F
      
 Contexte de la mission : Viveris accompagne ses clients dans la conception, le développement et la mise en oeuvre de solutions analytiques avancées. Dans ce cadre, nous recherchons un Expert sur la technologie Databricks afin d'accompagner notre client dans la migration de ses usages vers cette technologie. Vous êtes intégré dans une Direction des Systèmes d'Information, dans une équipe transverse en charge des domaines Data, Analytics et IA composée de 30 personnes. Responsabilités : - Concevoir et implémenter des pipelines de données performants sur Databricks ; - Optimiser les processus de traitement et d'analyse de données massives ; - Développer des modèles de machine learning et les déployer sur Databricks ; - Assurer la maintenance et l'évolution des infrastructures et des environnements existants ; - Fournir un support technique et des recommandations pour optimiser les performances sur Databricks.
 
            Offre d'emploi
            
        Devops (AWS et GCP) (expert dynatrace) full remote
      
 Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
 
            Mission freelance
            
        Expert Dataiku F/H
      
 En tant que Expert Dataiku, vous jouerez un rôle central dans l'exploitation de la plateforme Dataiku pour concevoir, industrialiser et déployer des solutions data à forte valeur ajoutée. V ous interviendrez de la modélisation à la mise en production, en étroite collaboration avec les équipes data, IT et métier. Vos responsabilités - Développer, entraîner et optimiser des modèles prédictifs (machine learning / deep learning) - Concevoir des workflows avancés dans Dataiku (DSS), avec une attention particulière à la qualité des données, à la reproductibilité et à l'industrialisation - Automatiser les traitements de données et gérer les pipelines (Data Preparation, Feature Engineering) - Collaborer avec les équipes métier pour identifier les cas d'usage data pertinents - Documenter les projets et garantir la maintenabilité des solutions - Former et accompagner les utilisateurs internes à la prise en main de Dataiku - Assurer une veille technique et partager les bonnes pratiques Les plus du poste : - Environnement Collaboratif : projets innovants favorisant le partage des connaissances. - Accompagnement individualisé et de proximité : formations certifiantes, attribution d'un Career Manager pour vous orienter dans votre trajectoire professionnelle, opportunités d'évolution de carrière. - Flexibilité du Travail : Télétravail et horaires flexibles pour votre équilibre vie professionnelle-personnelle. - Rémunération Compétitive : Salaire compétitif avec des avantages sociaux attrayants. - Mobilité : Possibilité de mobilité à Paris, Lyon ou Aix-en-Provence offrant des expériences diversifiées au sein de Lincoln.
 
            Mission freelance
            
        Tech Lead DATA AZURE / OpenAI
      
 Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires
            Mission freelance
            
        Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace
      
 Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .
 
            Offre d'emploi
            
        Analyste SOC_SPLUNK
      
 Vos missions Au sein de l’équipe CyberSOC de notre client, vous serez en charge d’analyser, investiguer et traiter les incidents de sécurité. Vous serez chargé (e ) de fournir et appliquer des plans de remédiation, de contribuer à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Vous participerez à la mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) afin d’optimiser la couverture de détection. Le/la consultant (e ) assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Vous produirez des rapports réguliers sur vos activités et maintiendrez les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : - Analyse, investigation et traitement des incidents de sécurité - Fourniture et application de plans de remédiation - Amélioration continue et opmisation des outils, règles de détection et scripting pour automatisa tion - Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) - Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Produc on de rapports réguliers sur les activités Main en des bases de connaissances (Confluence, Git, SharePoint) Avantages & Perspectives · Démarrage dès que possible · Mission de longue durée · Lieu : île de France · Rémunération : package global +/- 55 K selon profil (Politique d’intéressement en place depuis 2015)
            Mission freelance
            
        Data Engineer confirmé
      
 Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.
 
Derniers posts sur le forum
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres