Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 122 résultats.
Freelance

Mission freelance
Consultant sécurité SPLUNK - LYON uniquement

Groupe Aptenia
Publiée le
Splunk

3 ans
350-480 €
Lyon, Auvergne-Rhône-Alpes

Déployer et configurer Splunk et Splunk Enterprise Security (ES) Créer des règles de détection, scheduled searches et drilldowns Gérer les droits via Risk-Based Alerting (RBA) Concevoir et mettre en place des dashboards adaptés aux besoins métier Exploiter le Machine Learning Toolkit (MLTK) pour améliorer la détection Assurer la planification et le suivi des projets de sécurité Travailler en autonomie et prendre en charge les sujets de bout en bout Collaborer avec l’équipe et partager les connaissances

CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Lille, Hauts-de-France

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

CDI
Freelance

Offre d'emploi
Project Manager - Data & AI

Signe +
Publiée le
AI

24 mois
45k-50k €
322-500 €
Paris, France

Compétences techniques : Expertise on Generative AI, machine learning, and related technologies. Expertise in PMP, PRINCE2, or similar is preferred. Proficiency in project management tools and methodologies. Familiarity with the insurance industry or related sectors (claims, underwriting, health) is advantageous. Compétences autres : Proven expertise in project management within AI, data science, or technology-driven environments. Expertise managing cross-functional teams and multiple workstreams. Stakeholder management and organizational expertise Strategic and problem-solving expertise . English environment Innovative environment Site : Paris, 2 jours/ semaine sur site Prix d'achat max : 780 €HT Date de démarrage : asap Durée mission : 14 mois (fin 31/12/2026) Profil : Project Manager – Data& AI Anglais obligatoire

Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

skiils
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France

Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps

Freelance

Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)

WorldWide People
Publiée le
Architecture

3 mois
Vélizy-Villacoublay, Île-de-France

Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.

CDI

Offre d'emploi
Ingénieur Data / IA – Automatisation de la vérification des données GxP (H/F)

DAVRICOURT
Publiée le
Automatisation

45k-50k €
Annecy, Auvergne-Rhône-Alpes

Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Data / IA pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans la région Auvergne-Rhône-Alpes (Annecy). À ce titre, vos missions quotidiennes seront les suivantes : - Mettre en place un Proof of Concept (POC) visant à utiliser l'Intelligence Artificielle (IA) pour automatiser la double vérification et la fiabilisation des données sensibles issues du laboratoire et du service R&D (cahiers de laboratoire, bases SQL, images, etc.), dans un environnement réglementé GxP / GAMP ; - Analyser les différentes sources de données et en évaluer la qualité et la structure ; - Concevoir et développer un prototype IA intégrant des techniques de data processing, machine learning ou computer vision ; - Documenter les développements et les tests conformément aux exigences GxP / GAMP 5 ; - Collaborer étroitement avec le Responsable R&D et le service Qualité / Validation pour garantir la conformité du POC. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

Freelance

Mission freelance
Développeur fullstack - Data/IA (H/F)

LeHibou
Publiée le
Docker
Elasticsearch
FastAPI

6 mois
400-480 €
Toulouse, Occitanie

Notre client dans le secteur Santé et pharma recherche un/une Data / IA Engineer (H/F ) Description de la mission : Dans le cadre de nouveaux projets, notre client va rechercher un freelance expérimenté sur la partie Data. Vous interviendrez au sein de l'équipe Data intégration en tant que Data / IA Engineer. Vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Vos missions seront les suivantes : Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. (Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA.

Freelance
CDI

Offre d'emploi
Chef de projet IA

Codezys
Publiée le
Docker
Python

24 mois
40k-45k €
450-500 €
Meulan-en-Yvelines, Île-de-France

Métiers et Fonctions Métier : Pilotage de projet ou de programme Fonction : Chef de projet Spécialités technologiques RGPD Intelligence Artificielle (AI) Machine Learning Type de prestation Assistance Technique, facturation au taux journalier (TJM selon profil) Compétences requises Technologies et outils : Python, CI/CD, AWS, Docker Méthodes / Normes : Intégration continue Soft skills : Autonomie, force de proposition Langues : Anglais Description et livrables Le rôle de Chef de Projet consiste principalement à : Participer à la définition du besoin métier (challenge, business analyse, ROI) Organiser et piloter un portefeuille de projets avec des interlocuteurs internes ou externes Garantir le respect du planning, depuis l’étude d’opportunité jusqu’à la mise en œuvre en passant par le cadrage détaillé Assurer la conformité des fonctionnalités avec les besoins des directions Suivre le budget mensuel, contrôlant les consumés et le reste à faire Veiller au respect des procédures d’assurance qualité (instances, documentation, etc.) Être le référent technique auprès des interlocuteurs (architectes, infrastructure, Techlead, etc.) Préparer, animer et faire le compte rendu des réunions et ateliers Prendre en charge de manière autonome les projets de leur lancement à leur mise en production Proposer des améliorations des processus internes

Freelance
CDI
CDD

Offre d'emploi
Data Scientist

LEVUP
Publiée le
Python

6 mois
Liège, Belgique

En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.

CDI

Offre d'emploi
Expert Databricks - Secteur public H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie

Contexte de la mission : Viveris accompagne ses clients dans la conception, le développement et la mise en oeuvre de solutions analytiques avancées. Dans ce cadre, nous recherchons un Expert sur la technologie Databricks afin d'accompagner notre client dans la migration de ses usages vers cette technologie. Vous êtes intégré dans une Direction des Systèmes d'Information, dans une équipe transverse en charge des domaines Data, Analytics et IA composée de 30 personnes. Responsabilités : - Concevoir et implémenter des pipelines de données performants sur Databricks ; - Optimiser les processus de traitement et d'analyse de données massives ; - Développer des modèles de machine learning et les déployer sur Databricks ; - Assurer la maintenance et l'évolution des infrastructures et des environnements existants ; - Fournir un support technique et des recommandations pour optimiser les performances sur Databricks.

Freelance
CDI

Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote

Lùkla
Publiée le
Ansible
AWS Cloud
DevOps

1 an
47k-56k €
400-550 €
France

Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible

Freelance

Mission freelance
Expert Dataiku F/H

WINSIDE Technology
Publiée le
Dataiku
MySQL

3 ans
500-650 €
Paris, France

En tant que Expert Dataiku, vous jouerez un rôle central dans l'exploitation de la plateforme Dataiku pour concevoir, industrialiser et déployer des solutions data à forte valeur ajoutée. V ous interviendrez de la modélisation à la mise en production, en étroite collaboration avec les équipes data, IT et métier. Vos responsabilités - Développer, entraîner et optimiser des modèles prédictifs (machine learning / deep learning) - Concevoir des workflows avancés dans Dataiku (DSS), avec une attention particulière à la qualité des données, à la reproductibilité et à l'industrialisation - Automatiser les traitements de données et gérer les pipelines (Data Preparation, Feature Engineering) - Collaborer avec les équipes métier pour identifier les cas d'usage data pertinents - Documenter les projets et garantir la maintenabilité des solutions - Former et accompagner les utilisateurs internes à la prise en main de Dataiku - Assurer une veille technique et partager les bonnes pratiques Les plus du poste : - Environnement Collaboratif : projets innovants favorisant le partage des connaissances. - Accompagnement individualisé et de proximité : formations certifiantes, attribution d'un Career Manager pour vous orienter dans votre trajectoire professionnelle, opportunités d'évolution de carrière. - Flexibilité du Travail : Télétravail et horaires flexibles pour votre équilibre vie professionnelle-personnelle. - Rémunération Compétitive : Salaire compétitif avec des avantages sociaux attrayants. - Mobilité : Possibilité de mobilité à Paris, Lyon ou Aix-en-Provence offrant des expériences diversifiées au sein de Lincoln.

Freelance

Mission freelance
Tech Lead DATA AZURE / OpenAI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure

6 mois
Paris, France

Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires

Freelance

Mission freelance
Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace

HOXTON PARTNERS
Publiée le
AWS Cloud
Dynatrace
Google Cloud Platform (GCP)

12 mois
France

Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .

Freelance
CDI

Offre d'emploi
Analyste SOC_SPLUNK

iDNA
Publiée le
Security Information Event Management (SIEM)
Splunk

6 mois
50k-55k €
400-620 €
Hauts-de-Seine, France

Vos missions Au sein de l’équipe CyberSOC de notre client, vous serez en charge d’analyser, investiguer et traiter les incidents de sécurité. Vous serez chargé (e ) de fournir et appliquer des plans de remédiation, de contribuer à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Vous participerez à la mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) afin d’optimiser la couverture de détection. Le/la consultant (e ) assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Vous produirez des rapports réguliers sur vos activités et maintiendrez les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : - Analyse, investigation et traitement des incidents de sécurité - Fourniture et application de plans de remédiation - Amélioration continue et opmisation des outils, règles de détection et scripting pour automatisa tion - Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) - Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Produc on de rapports réguliers sur les activités Main en des bases de connaissances (Confluence, Git, SharePoint) Avantages & Perspectives · Démarrage dès que possible · Mission de longue durée · Lieu : île de France · Rémunération : package global +/- 55 K selon profil (Politique d’intéressement en place depuis 2015)

Freelance

Mission freelance
Data Engineer confirmé

SQLI
Publiée le
Azure Data Factory

6 mois
400-500 €
Paris, France

Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

122 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous