Find your next tech and IT Job or contract Machine Learning

What you need to know about Machine Learning

Machine Learning is a branch of artificial intelligence that enables computer systems to learn from data and improve without direct human intervention. Machine Learning uses algorithms and statistical models to detect patterns, make predictions, or offer recommendations. It can work in different ways: with supervised learning, where the model is trained on labeled data to predict specific outcomes, with unsupervised learning, where it explores unlabeled data to identify structures or groupings, or with reinforcement learning, where the system learns through trial and error to maximize a reward. This technology is used in many sectors, such as image recognition, virtual assistants, recommendation systems, or industrial automation, and it plays a key role in data exploitation and technological innovation.

Your search returns 56 results.
Contractor

Contractor job
Business Analyst IA

Published on
Generative AI

6 months
100-420 €
Ile-de-France, France
En tant que Business Analyst, vos principales missions sont de : Assistance à la définition des besoins, afin qu’ils soient clairement définis et précisés...... ..... .... ..... .... . Evaluation de la charge du projet, planification en charge et délais .... ..... ..... ..... ..... ...... ..... ... . Les métiers réglementaires (finance groupe, IGL…) .... ..... ..... ..... ...... .... ...... .... Des projets IA : Machine Learning, Deep Learning et IA generative / agentique ..... ..... .... ... ..... ...
Contractor

Contractor job
Data Scientist Junior (h/f)

Published on

1 month
400-450 €
95000, Cergy, Île-de-France
Hybrid
Introduction & Résumé: Le rôle de Data Scientist Junior est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Permanent

Job Vacancy
Ingénieur Data / IA – Automatisation de la vérification des données GxP (H/F)

Published on
Artificial intelligence
Automation

45k-50k €
Annecy, Auvergne-Rhône-Alpes
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Data / IA pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans la région Auvergne-Rhône-Alpes (Annecy). À ce titre, vos missions quotidiennes seront les suivantes : - Mettre en place un Proof of Concept (POC) visant à utiliser l'Intelligence Artificielle (IA) pour automatiser la double vérification et la fiabilisation des données sensibles issues du laboratoire et du service R&D (cahiers de laboratoire, bases SQL, images, etc.), dans un environnement réglementé GxP / GAMP ; - Analyser les différentes sources de données et en évaluer la qualité et la structure ; - Concevoir et développer un prototype IA intégrant des techniques de data processing, machine learning ou computer vision ; - Documenter les développements et les tests conformément aux exigences GxP / GAMP 5 ; - Collaborer étroitement avec le Responsable R&D et le service Qualité / Validation pour garantir la conformité du POC. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Contractor
Permanent

Job Vacancy
Chef de projet IA

Published on
Docker
Python

24 months
40k-45k €
450-500 €
Meulan-en-Yvelines, Ile-de-France
Hybrid
Métiers et Fonctions Métier : Pilotage de projet ou de programme Fonction : Chef de projet Spécialités technologiques RGPD Intelligence Artificielle (AI) Machine Learning Type de prestation Assistance Technique, facturation au taux journalier (TJM selon profil) Compétences requises Technologies et outils : Python, CI/CD, AWS, Docker Méthodes / Normes : Intégration continue Soft skills : Autonomie, force de proposition Langues : Anglais Description et livrables Le rôle de Chef de Projet consiste principalement à : Participer à la définition du besoin métier (challenge, business analyse, ROI) Organiser et piloter un portefeuille de projets avec des interlocuteurs internes ou externes Garantir le respect du planning, depuis l’étude d’opportunité jusqu’à la mise en œuvre en passant par le cadrage détaillé Assurer la conformité des fonctionnalités avec les besoins des directions Suivre le budget mensuel, contrôlant les consumés et le reste à faire Veiller au respect des procédures d’assurance qualité (instances, documentation, etc.) Être le référent technique auprès des interlocuteurs (architectes, infrastructure, Techlead, etc.) Préparer, animer et faire le compte rendu des réunions et ateliers Prendre en charge de manière autonome les projets de leur lancement à leur mise en production Proposer des améliorations des processus internes
Contractor

Contractor job
Consultant sécurité SPLUNK - LYON uniquement

Published on
Splunk

3 years
350-480 €
Lyon, Auvergne-Rhône-Alpes
Déployer et configurer Splunk et Splunk Enterprise Security (ES) Créer des règles de détection, scheduled searches et drilldowns Gérer les droits via Risk-Based Alerting (RBA) Concevoir et mettre en place des dashboards adaptés aux besoins métier Exploiter le Machine Learning Toolkit (MLTK) pour améliorer la détection Assurer la planification et le suivi des projets de sécurité Travailler en autonomie et prendre en charge les sujets de bout en bout Collaborer avec l’équipe et partager les connaissances
Contractor

Contractor job
Product Owner IA - ML

Published on
API
AWS Cloud
Azure

6 months
Paris, France
Hybrid
Nous recherchons un Product Owner à forte sensibilité technique pour piloter : Le développement d’applications de gouvernance des modèles de Machine Learning La plateforme interne de mise à disposition de fonctionnalités d’IA générative (LLM Hub) Votre rôle sera clé pour orienter le produit, suivre sa construction, garantir la cohérence technique et maximiser la valeur pour les utilisateurs internes. Périmètre fonctionnel 1. Applications de gouvernance AI/ML Objectif : inventorier et suivre les modèles IA déployés sur différentes plateformes (Azure Machine Learning, Azure Databricks, AWS Databricks, AWS Sagemaker). Fonctionnalités principales : Récupération automatique des modèles et de leurs métriques Exposition des données via API Dashboard React dédié au suivi des modèles (mises à jour, performance, usage…) Application complémentaire de collecte des métriques d’inférence 2. Plateforme LLM Hub Objectif : centraliser l’accès et la consommation de LLMs (OpenAI, Mistral, Claude, via Azure OpenAI / AI Foundry et AWS Bedrock). Fonctionnalités actuelles : Mutualisation, supervision et optimisation de la consommation LLM (finops, reporting, provisioned throughput) Mise à disposition de briques IA clé en main (RAG, Text-to-SQL, WebSearch…) Application interne type ChatGPT Projections : Plateforme de création d’agents Élargissement des outils et plugins Nouvelles features dans le ChatGPT interne
Contractor

Contractor job
Chef de projet IA

Published on
Python

18 months
100-500 €
Paris, France
Hybrid
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : AI, Machine learning, RGPD MISSIONS En tant que Chef de Projets, vos principales missions sont : - Assistance à la définition du besoin métier - Organiser et piloter un portefeuille de projets, dont les interlocuteurs sont soient internes, soient des prestataires externes - Garant du respect du planning général, de l’étude d’opportunité à la mise en œuvre, en passant par le Cadrage Détaillé - Garant des fonctionnalités mises en œuvre, permettant de répondre complètement aux besoins exprimés par les directions - Garant du respect du budget : Suivi mensuel des consommés / du reste à faire - Garant du respect des procédures d’assurance qualité (instances, documentation, …) - Etre le référent auprès des différents interlocuteurs (architectes, infra, Techlead. . .) - Préparer, animer, réaliser le compte rendu de l’ensemble des instances projet (Comité de projet / Ateliers / . . . ) - Être autonome dans la prise en charge des projets, de leur lancement à leur mise en production. - Être force de proposition sur l’amélioration des processus internes du service. Expertise souhaitée - Expérience significative (3+) en conduite de projet IT en milieu bancaire - Leadership d’influence : bon relationnel, rigueur, sens de l'organisation, autonomie, avec capacité à faire avancer des équipes sans lien hiérarchique - Excellente capacité à comprendre et maîtriser les besoins métiers et les impératifs IT - Esprit d'initiative et capacité d'anticipation - Pensée systémique et esprit facilitateur : capacité à anticiper les dépendances et à remonter rapidement les risques, proposer des solutions en partenariat avec l’ensemble des interlocuteurs. Savoir poser les bonnes questions et débloquer les frictions. - Capacités à communiquer avec aisance (écrit et oral) et à faire passer les messages (à l’écrit comme à l’oral) de manière ferme et diplomatique. - Excellente culture de l’IA et des frameworks back / front associés : - Langage de programmation : Python, en DevOps et en MLOps. - Environnement IA AWS : Sagemaker, bedrock, agentcore (…). - Algorithmes de Machine Learning, DL et d’AI Générative, cycle de vie des modèles - Technologies Front-End (Figma, Angular, React etc.) et technologies Back-end (Java SprintBoot, NodeJS, Python etc.). - Bases de données (SQL, NoSQL, graphiques) et des frameworks distribués (Spark, pySpark, SparkSQL, etc.). - Pipelines d'intégration continue/ livraison continue (CI/CD). - Principes de containérisation (Docker, Kubernates) - Connaissance règlementaire (RGPD, IA Act, cadre normatif, gouvernance interne…) - Maîtrise complète impérative des outils bureautiques du pack MS Office - Anglais technique opérationnelle
Contractor
Permanent

Job Vacancy
Data Scientist Senior – E-commerce Opération (H/F)

Published on
Apache Airflow
Google Cloud Platform (GCP)
Python

1 year
10k-58k €
100-580 €
Paris, France
Hybrid
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Contractor

Contractor job
Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace

Published on
AWS Cloud
Dynatrace
Google Cloud Platform (GCP)

12 months
Clipperton Island, France
Remote
Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .
Contractor

Contractor job
Data Engineer confirmé

Published on
Azure Data Factory

6 months
400-500 €
Paris, France
Hybrid
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Contractor

Contractor job
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

Published on

10 months
580-635 €
Paris, France
Hybrid
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
Contractor
Permanent

Job Vacancy
Analyste SOC_SPLUNK

Published on
Security Information Event Management (SIEM)
Splunk

6 months
50k-55k €
400-620 €
Hauts-de-Seine, France
Hybrid
Vos missions Au sein de l’équipe CyberSOC de notre client, vous serez en charge d’analyser, investiguer et traiter les incidents de sécurité. Vous serez chargé (e ) de fournir et appliquer des plans de remédiation, de contribuer à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Vous participerez à la mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) afin d’optimiser la couverture de détection. Le/la consultant (e ) assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Vous produirez des rapports réguliers sur vos activités et maintiendrez les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : - Analyse, investigation et traitement des incidents de sécurité - Fourniture et application de plans de remédiation - Amélioration continue et opmisation des outils, règles de détection et scripting pour automatisa tion - Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) - Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Produc on de rapports réguliers sur les activités Main en des bases de connaissances (Confluence, Git, SharePoint) Avantages & Perspectives · Démarrage dès que possible · Mission de longue durée · Lieu : île de France · Rémunération : package global +/- 55 K selon profil (Politique d’intéressement en place depuis 2015)
Permanent

Job Vacancy
Expert Databricks - Secteur public H/F

Published on

45k-55k €
Crédit Agricole du Languedoc, Occitania
Hybrid
Contexte de la mission : Viveris accompagne ses clients dans la conception, le développement et la mise en oeuvre de solutions analytiques avancées. Dans ce cadre, nous recherchons un Expert sur la technologie Databricks afin d'accompagner notre client dans la migration de ses usages vers cette technologie. Vous êtes intégré dans une Direction des Systèmes d'Information, dans une équipe transverse en charge des domaines Data, Analytics et IA composée de 30 personnes. Responsabilités : - Concevoir et implémenter des pipelines de données performants sur Databricks ; - Optimiser les processus de traitement et d'analyse de données massives ; - Développer des modèles de machine learning et les déployer sur Databricks ; - Assurer la maintenance et l'évolution des infrastructures et des environnements existants ; - Fournir un support technique et des recommandations pour optimiser les performances sur Databricks.
Contractor

Contractor job
Big Data Analyst

Published on

£300-450
London, United Kingdom
Big Data Scientist – Docklands London Our Client an international organisation is looking to recruit a Big Data Expert with 2 to 5 years expertise as a Big Data Scientist. You will have Natural Language Processing (NLP) knowledge and experience and understand and analyse large data sets to discover new insights. Working in a multi-disciplinary team within a highly technical and complex environment. Well versed in scalable data mining and machine learning techniques (using computers to improve as well as develop algorithms)Kernel Methods, Deep Learning, Statistical Relational Learning, Ensemble Methods Model using advanced statistical/ mathematical models, predict and segment data to hypothesize/ evolve uses cases to monetize data and generate other business value. Translate business needs to technical requirements and implementation. Experience of Big Data technologies/Big Data Analytics. C++, Java, Python, Shell Script R, Matlab, SAS Enterprise Miner Elastic search and understanding of Hadoop ecosystem Experience working with large data sets, experience working with distributed computing tools like Map/Reduce, Hadoop, Hive, Pig etc. Advanced use of Excel spread sheets for analytical purposes An MSc or PhD in Data Science or an analytical subject (Physics, Mathematics, Computing) or other quantitative discipline would be handy. The position is based in the Docklands London. This is a 3 to 6 month contract assignment. Please send your CV to us in Word format along with daily rate and availability details.
Permanent

Job Vacancy
Senior Data Scientist

Published on

£85k-90k
SW1A 2AH, London, England, United Kingdom
Senior Data Scientist - Asset Risk Modelling London - Hybrid, 3 days in office £85,000 - £90,000 + Bonus + Great Pension + Private Healthcare + 28 days Holiday + Hybrid Working This is a brilliant opportunity for a Senior Data Scientist with strong experience in model risk management, pricing, and insurance to join a market-leading organisation during a key period of growth and innovation. The Asset Risk function is responsible for forecasting key financial risks such as Residual Value, SMR, Insurance Lease Pricing, Economic Capital, and Customer Pricing. As part of their continued expansion, they are now seeking a talented Senior Data Scientist to join the Asset Risk Modelling Team and help shape the future of their modelling capabilities. In this role, you will take ownership of developing, maintaining, and enhancing advanced forecasting and pricing models that underpin critical business decisions. Working closely with the Modelling Manager and wider stakeholders, you'll ensure the robustness and transparency of all models, while continuously improving methodologies, data use, and analytical processes. You will also play a key role in delivering the model risk management framework across the Asset Risk function. The ideal candidate will be an experienced Data Scientist/Quantitative Modeller with a strong technical background in Python, R, or similar tools, and proven experience in model development within pricing, insurance, or financial risk. You'll combine deep technical expertise with strong business understanding, communicating insights effectively to both technical and non-technical audiences. A fantastic opportunity to join a forward-thinking organisation where you'll have genuine influence, work on high-impact projects, and develop your career within a collaborative and progressive environment. The Role: Develop, implement, and maintain advanced statistical and machine learning models for pricing and risk forecasting Support the delivery and enhancement of the model risk management framework within the Asset Risk function Collaborate with business SMEs to align model outputs with strategic objectives and ensure transparency in assumptions and methodologies Provide technical guidance on data, modelling techniques, and analytical best practices Lead the continuous improvement of modelling tools, documentation, and governance standards Work closely with cross-functional teams across Asset Risk, Product, and Data to ensure consistent and efficient delivery The Person: Proven experience as a Senior Data Scientist, Risk Modeller, or similar role Strong technical skills in Python, R, or equivalent for statistical modelling and forecasting Experience within insurance, pricing, or financial risk environments Excellent understanding of model risk management principles and governance Strong communication skills with the ability to explain technical outputs to senior stakeholders Comfortable working in a hybrid model, 3 days per week in the London office
Contractor
Permanent

Job Vacancy
Devops (AWS et GCP) (expert dynatrace) full remote

Published on
Ansible
AWS Cloud
DevOps

1 year
47k-56k €
400-550 €
Clipperton Island, France
Remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Machine Learning

Data Scientist

The Data Scientist uses Machine Learning to develop predictive models based on complex data.

Data Analyst

The Data Analyst uses Machine Learning to automate data exploration and identify key trends.

AI/Machine Learning Developer

The AI/Machine Learning Developer specializes in creating machine learning models to solve complex problems such as image recognition, natural language processing, or data prediction.

R&D Engineer

The R&D Engineer designs and develops innovative solutions using Machine Learning techniques to enhance products or processes within an organization.

Data Developer (BI / Big Data / Data Engineer)

The Data Developer (Business Intelligence/BI/Big Data/Data Engineer) implements machine learning models in data pipelines to extract useful insights and optimize decision-making processes.

56 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us