Find your next tech and IT Job or contract Data science

Your search returns 50 results.
Contractor

Contractor job
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Cherry Pick
Published on
AI
AWS Cloud
Azure

1 year
510-570 €
Paris, France

Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).

Contractor

Contractor job
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Published on

10 months
580-635 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Permanent

Job Vacancy
Data Scientist/IA (H/F)

Amiltone
Published on

35k-40k €
Lyon, Auvergne-Rhône-Alpes

Le poste Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : - Collecter et préparer des données - Nettoyer, transformer et structurer les données pour les rendre exploitables - Gérer la qualité des données - Construire des modèles prédictifs et des algorythmes de machine learning - Veiller à l'amélioration continue des performances des modèles - Suivre les avancées en data science, machine learning et intelligence artificielle Stack technique: -Machine Learning -Python -SQL -Pandas / Numpy -Flask -Tableau/ Power BI

Contractor
Permanent

Job Vacancy
Data Analyst orienté Data Engineering (F/H)

HOXTON PARTNERS
Published on
Azure
Python
Snowflake

6 months
50k-60k €
400-480 €
Ile-de-France, France

Nous recherchons un(e) Data Analyst orienté Data Engineering pour accompagner la transformation data-driven du groupe. Intégré(e) à une équipe transverse dynamique, vous interviendrez sur l’ensemble de la chaîne de valeur data : gouvernance, analyse, data engineering, data science et dataviz. En rejoignant cet environnement stimulant et bienveillant, vous aurez l’opportunité de valoriser des données clients, produits et opérationnelles à travers des projets stratégiques, des modèles prédictifs et des outils innovants. Missions Construire et automatiser des pipelines ELT fiables (Azure, Snowflake, Python, SQL). Mettre en place des datasets certifiés pour la BI & Data Science. Développer et maintenir des dashboards (Tableau, MicroStrategy). Analyser des jeux de données variés pour générer des insights stratégiques. Participer à la mise en place de modèles prédictifs (scoring, segmentation, ML). Contribuer à la diffusion des bonnes pratiques data au sein du groupe.

Contractor

Contractor job
DevOps - Python

KUBE Partners S.L. / Pixie Services
Published on
Azure DevOps
Python

1 year
400-500 €
Maritime Alps, France

Intégration d'une équipe Agile Scrum en charge de la conception, du développement et de la maintenance d'une plateforme de big data. Cette plateforme s'appuie sur des technologies de pointe et des services managés Azure, en suivant une architecture de type Data Mesh. Son objectif principal est de fournir aux équipes et utilisateurs des fonctionnalités essentielles pour faciliter et industrialiser les projets de data science, notamment : ▪ Des données anonymisées prêtes à l'emploi. ▪ Des capacités de requêtes. ▪ Des environnements de data science. ▪ La gestion de modèles. ▪ Des boucles de rétroaction vers les systèmes opérationnels. Cette plateforme héberge également toutes les charges de travail analytiques, en mode batch ou streaming, en prenant en charge de nouveaux cas d'usage ou en permettant la migration des applications des centres de données privés vers Azure.

Contractor
Fixed term

Job Vacancy
Data Scientist

Ailancy Technology
Published on
CI/CD
Databricks
Deep learning

1 year
40k-45k €
400-550 €
Paris, France

Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

Contractor

Contractor job
Ingénieur IA générative

Ness Technologies
Published on
Pytorch
Tensorflow

6 months
Yvelines, France

Responsabilités Clés Point de contact data : Interlocuteur privilégié pour les besoins liés aux données dans le cadre des applications IA génératives. Documentation : Rédaction claire et exhaustive des spécifications data (formats, fréquence, exigences de conformité...). Collaboration : Travail en synergie avec les équipes métiers et techniques pour identifier et combler les éventuelles lacunes de données. Validation des données : Vérification de la complétude, de la qualité et de la pertinence des données exploitées. Support technique : Gestion des incidents liés aux données manquantes, erronées ou corrompues. Livrables Attendus Mise en production d’applications basées sur le skill RAG. Documentation complète des besoins et des processus liés aux données. Validation des livrables en conformité avec les critères définis par le Product Owner Data Science/IA.

Contractor

Contractor job
228369/Data analyst Microsoft Power BI Python - Pau - no remote

WorldWide People
Published on
Microsoft Power BI
Python

6 months
320-350 €
Pau, Nouvelle-Aquitaine

Data analyst Microsoft Power BI Python - Pau - no remote La mission porte sur les projets d’amélioration de la qualité de la donnée des dépenses et nettoyage des Master data articles & services Goals and deliverables Prestations : Le Fournisseur est chargé de fournir les Services pour couvrir les activités suivantes : - Besoin d'un profil Data Analyst avec un intérêt pour la data science - Support métier Stock & Master Data - Interactions avec les administrateurs Outils - Interactions avec le métier (Category Managers et leurs Segment Leaders, Assistance filiales) - Interactions avec les entités Achats des filiales et avec les projets lors des demandes spécifiques - Traitement de données via programmation Python - Construction des cartographies et analyse des données de stock - Construction des outils de Master Data et Stock Management - Regroupement des fournisseurs sous leur maisons mères et par fournisseur stratégique - Spécification des extracteurs des données en provenance des ERP - Optimisation de pipeline d'extraction de données - Suivi des tâches réalisées et archivage des règles appliquées - Reporting et communication des modifications réalisées - Publication de rapport et tableaux de bord BI de synthèse d’activités et résultat - Participation à l’amélioration des processus et de la rédaction des modes opératoires - Support à la cellule référentielle dans la mise en qualité des données - Création, maintenance et optimisation d'outils - Utilisation de l'Intelligence Artificielle pour réaliser des prédictions et automatiser des tâches - Etre curieux, proactif et force de proposition Expected skills Skills Skill level Microsoft Power BI Confirmed Programmation Python Confirmed SAP Advanced data analyst Expert data science Advanced Languages Language level Anglais Fluent

Contractor

Contractor job
Architecte Data (MLOps)

Nicholson SAS
Published on
CI/CD
Python
Terraform

6 months
740 €
Lyon, Auvergne-Rhône-Alpes

Contexte/ Mission : La cellule Marché Data Science XXXXXXX recherche un Architecte Data. Dans un contexte Agile, apporter un appui opérationnel et stratégique à la discipline IA/MLOPS de l’UPN pour : Identifier et évaluer des opportunités IA/ML. Réaliser des POC et industrialiser les solutions retenues. Intégrer les développements IA/ML dans les produits numériques. Standardiser les pratiques MLOPS. Vulgariser et acculturer les équipes produit aux enjeux IA. Attendus/ Livrables clés : Rapport d’analyse d’opportunité IA/ML Documentation technico-économique + code POC Pages Confluence sur standards MLOPS Support de présentation / acculturation IA Rapport d’audit des pratiques IA/MLOPS

Permanent

Job Vacancy
Ingénieur DevOps - SI médical H/F

VIVERIS
Published on

40k-50k €
Grenoble, Auvergne-Rhône-Alpes

Contexte de la mission : Dans le cadre d'un projet au sein du domaine médical, la mission se déroule au sein d'une infrastructure Kubernetes de production «on premise». L'objectif est d'assurer la mise à jour et l'évolution de composants clés (registry Harbor, reverse proxy Traefikee, authentification LDAPs vers OIDC) et de mettre en place les procédures associées pour garantir la pérennité des opérations. Le consultant interviendra également sur des activités de support et de développement autour des environnements DevOps, en lien direct avec les équipes Data Science et Infrastructure.L'environnement technique inclut Kubernetes, Ansible, Helm, GitLab CI, Docker, Artifactory, Python, R, ainsi que des outils de gestion de workflows (Prefect, Dagster, HTCondor). Responsabilités : Mettre à jour le registry Harbor (2.2 vers 2.14) et le reverse proxy Traefikee dans le cluster Kubernetes, avec documentation des procédures associées ; Mettre en place une nouvelle méthode d'authentification de LDAPs vers OIDC ;Assurer le support DevOps des utilisateurs Data Science (applications, workflows, environnements) ; Contribuer aux projets DevOps sur les thématiques Helm, GitLab CI, Docker, Artifactory, Python et R ; Apporter un soutien au support infrastructure Kubernetes/Ansible ; Garantir la fiabilité et la continuité des services pendant les absences des référents internes.

Contractor

Contractor job
DBA Snowflake

SQLI
Published on
Python

6 months
500-600 €
Paris, France

Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.

Contractor

Contractor job
Data Steward Senior

Nicholson SAS
Published on
draw.io
JIRA
MEGA

10 months
450-460 €
Lyon, Auvergne-Rhône-Alpes

Contexte : cellule Marché Data Science Profil : Data Steward Senior Missions Principales : Organisation des travaux : animation d'atelier, coordination, reporting, Revue de l’existant : lecture de documents, création de glossaire validé par les Data Owners, Modélisation des objets métiers : diagrammes UML simplifiés, Anlayse de la qualité des données : statistiques, indicateurs, mise à jour des modèles, Maintenir les lignages de données : entre sources et consommateurs, Communication avec les parties prenantes : supports, cartographies, réponses aux questions

Contractor
Permanent

Job Vacancy
Ingénieur DevSecOps / MLOps / IA

OBJECTWARE MANAGEMENT GROUP
Published on
DevSecOps

3 years
Ile-de-France, France

Contexte de la mission Vous participerez à la conception, l’industrialisation et la sécurisation d’un produit IA stratégique pour les métiers du Groupe. En lien étroit avec les équipes IA / Data Science et DevSecOps / Industrialisation , vous interviendrez sur l’ensemble du cycle de vie du produit : conception, déploiement, sécurité, observabilité et accompagnement des utilisateurs. Rôle et responsabilités principales 1. Conception & Industrialisation Participer à la définition technique et fonctionnelle du produit IA avec les équipes Data et Sécurité. Industrialiser les workflows IA via des pipelines CI/CD et GitOps : GitLab CI, ArgoCD, Argo Workflows, MLFlow, KubeFlow . Implémenter les mécanismes d’automatisation (Ansible, Python) pour le provisioning, le déploiement et le monitoring. Maintenir la feuille de route technique du produit et contribuer à la veille technologique IA (frameworks, GPU, calcul distribué). 2. Sécurité, conformité & gouvernance Garantir la sécurité, la conformité et la confidentialité des environnements IA. Intégrer le Security by Design et le Zero Trust dans les pipelines et architectures Cloud. Assurer la gestion des secrets, auditabilité et traçabilité via HashiCorp Vault , GitOps, ArgoCD et outils DevSecOps. Définir et implémenter les mécanismes de gouvernance technique permettant aux métiers d’opérer leur propre gouvernance du produit IA. 3. Exploitation & accompagnement Superviser les opérations critiques (changements, déploiements, mises à jour) et garantir la continuité de service. Participer à la gestion des incidents , analyses de causes racines et documentation associée. Accompagner les équipes Data Science, IT et métiers dans l’usage du produit et la mise en œuvre des bonnes pratiques. Être le point de contact technique avec les partenaires externes (éditeurs, équipes d’industrialisation, infrastructure). Compétences techniques recherchées Cloud, Conteneurs & Orchestration Docker, Kubernetes, OpenShift Frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, Nemo DevSecOps / MLOps GitLab CI, ArgoCD, Argo Workflows, Helm, Ansible, Python MLFlow / KubeFlow pour l’automatisation des entraînements et déploiements IA HashiCorp Vault (gestion des secrets, conformité) Observabilité / Monitoring : Dynatrace, ELK, Prometheus Sécurité & Gouvernance Maîtrise des principes Zero Trust , Security by Design Gestion des accès et IAM (rôles, politiques d’accès, audit) Respect des normes de conformité : traçabilité, auditabilité, RGPD Langages & Scripting Python (confirmé) Shell scripting / Bash Connaissance des environnements Linux enterprise et Windows Server Soft skills et posture attendue Rigueur, professionnalisme et sens de la confidentialité Communication claire et pédagogie avec les équipes techniques et métiers Esprit d’équipe et collaboration transverse Capacité à documenter et structurer les processus Anglais courant (environnement international)

Permanent

Job Vacancy
Data Scientist Assurance

REDLAB
Published on
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

Contractor
Fixed term

Job Vacancy
Data Engineer AWS H/F

SMARTPOINT
Published on
Ansible
AWS Cloud
Docker

12 months
40k-55k €
440-550 €
Ile-de-France, France

Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.

Contractor
Permanent

Job Vacancy
Lead python et Data

AVALIANCE
Published on
Conceptual Data Model (CDM)
Modelling
Pandas

2 years
40k-60k €
400-600 €
Rueil-Malmaison, Ile-de-France

• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Contract roles and jobs for Data science

Data Scientist

The data scientist analyzes and models large datasets using advanced tools such as machine learning to extract actionable insights and guide strategic decisions.

Data Analyst

The data analyst converts raw data into clear, actionable reports using visualization and statistical analysis tools, often collaborating with data science teams.

AI/Machine Learning Developer

The AI / Machine Learning developer designs and implements predictive models and machine learning algorithms to solve complex data-related problems.

Data Director / Chief Data Officer (CDO)

The Chief Data Officer oversees data management and analysis strategies, leveraging data science approaches to maximize the value of data within the company.

50 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us