Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist

Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume. Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique. Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise. In fine, il veille à proposer des solutions de protection efficaces. Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles. Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Votre recherche renvoie 174 résultats.
CDI

Offre d'emploi
Data Engineer F/H

VIVERIS
Publiée le

40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Freelance
CDI
CDD

Offre d'emploi
Développeur Python – IA / DevOps (H/F)

NSI France
Publiée le
Python

1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Freelance

Mission freelance
Développeur Python/Django

Root-MENU
Publiée le
Python

6 mois
550-800 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un développeur Python/Django pour contribuer à des projets orientés data et automatisation. Vous participerez à la conception et au développement d’outils dédiés au traitement et à l’exploitation des données, ainsi qu’à leur intégration dans des applications web robustes. Vous serez également impliqué dans l’optimisation et l’automatisation des processus métier. Les tâches et les livrables : ➥ Développement d’outils de traitement de données (collecte, nettoyage, structuration) en Python ➥ Intégration de modules d’analyse et d’IA dans une plateforme Django ➥ Automatisation des processus métier à l’aide de scripts, pipelines et outils internes ➥ Création d’interfaces web pour le reporting et la visualisation des données ➥ Collaboration avec les Data Scientists pour déployer les modèles en production ➥ Documentation technique et suivi de la qualité du code
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS

VISIAN
Publiée le
Apache Airflow
API
AWS Cloud

3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
MACHINE LEARNING / IA ENGINEER

BEEZEN
Publiée le
Machine Learning

3 mois
Paris, France
Prestations attendues : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
CDI

Offre d'emploi
Product Owner IA

Webnet
Publiée le
Intelligence artificielle

40k-50k €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions basées sur l’intelligence artificielle chez nos client grands compte, nous recherchons un Product Owner IA capable de piloter la conception et la mise en production de produits intégrant des technologies d’IA et de data. Vous travaillerez au cœur d’équipes pluridisciplinaires composées de développeurs, data scientists, designers et experts métier. Vous aurez pour missions : Définir et piloter la vision produit autour des solutions d’intelligence artificielle Recueillir et prioriser les besoins métiers et utilisateurs Rédiger et maintenir le product backlog et les user stories Travailler en étroite collaboration avec les équipes Data / IA / Engineering Prioriser les fonctionnalités en fonction de la valeur business et de la faisabilité technique Suivre les cycles de développement en méthodologie agile (Scrum / Kanban) Participer à la définition des KPIs produit et à l’analyse de la performance Assurer la communication avec les parties prenantes internes et externes
CDI

Offre d'emploi
ML Ingénieur - Google Cloud

VISIAN
Publiée le
CI/CD
MLOps

Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Freelance

Mission freelance
AI Engineer - Azure

Groupe Aptenia
Publiée le
Azure
MLOps
Python

1 an
450-500 €
Grenoble, Auvergne-Rhône-Alpes
Nous sommes à la recherche d'un AI Engineer qui interviendra chez l'un de nos clients pour développer et industrialiser des modèles d’optimisation énergétique pour anticiper les besoins des bâtiments en fonction de la météo, des coûts et de l’origine de l’énergie. La phase exploratoire a déjà été réalisée, le Focus se fera sur le backend Python et l’industrialisation des modèles existants. 🎯 Vos missions clés ✅ Développer des solutions backend (Python, Azure) pour l’optimisation énergétique. ✅ Industrialiser des modèles de forecasting déjà existants. ✅ Collaborer avec une équipe de 6-7 Data Scientists.
Freelance

Mission freelance
Data Engineer

Root-MENU
Publiée le
Python
SQL

6 mois
500-800 €
Paris, France
En tant que Data Engineer, vous interviendrez sur la conception, la mise en place et l’évolution des pipelines de données, avec un enjeu fort autour de la fiabilité et de la performance des traitements. Au sein de l’équipe data, vos missions seront les suivantes : ⋆ Concevoir et maintenir des pipelines de données (ETL/ELT) ⋆ Assurer la collecte, le nettoyage et la transformation des données ⋆ Optimiser les performances des flux et des bases de données ⋆ Garantir la qualité et la disponibilité des données ⋆ Collaborer avec les équipes data (analystes, data scientists) pour répondre aux besoins métiers ⋆ Participer aux choix techniques liés à l’architecture data
CDI

Offre d'emploi
Développeur Logiciel Senior (Rust / Kotlin / TS)

Recrut Info
Publiée le
Kotlin
Rust
TypeScript

55k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Lead Developer, au sein d'une équipe de 8 développeurs, vous participerez à toutes les phases de conception et de développement permettant d'améliorer la suite logicielle qui accompagne les médecins dans leurs opérations en milieu hospitalier. Vous travaillerez au contact des Product owners et des Data Scientists qui composent l'équipe technique de manière à produire des solutions propres et robustes. Vous aurez à documenter vos développements de manière à conserver un état des lieux clair de ce qui a été conçu par vos soins. La suite logicielle actuelle est conçue sur une stack Full TypeScript (Electron, Node, React) qui est vouée à être progressivement remplacée par du Rust et du Kotlin. La refonte est déjà bien amorcée et vous serez pleinement associé·e à celle-ci. Environnement technique : Rust (souhaité), Kotlin (souhaité), TypeScript (requis), Node.js (souhaité), ReactJs (souhaité), Electron (souhaité), Jest (souhaité), Docker, GIT (requis), GitLab-CI, Python, Linux (requis), C++
Freelance
CDI

Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE

SMILE
Publiée le
Data science
IA Générative
RAG

6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Freelance
CDI

Offre d'emploi
ML Engineer

UCASE CONSULTING
Publiée le
BigQuery
Python
SQL

1 an
40k-45k €
400-650 €
Île-de-France, France
🚀 ML Engineer / MLOps Engineer – GCP (H/F) 🎯 Contexte & Objectif Dans le cadre du développement d’une équipe dédiée à la personnalisation de l’expérience utilisateur , notre client renforce sa Direction Data. 👉 Objectif : concevoir et déployer des solutions de Machine Learning en production (recommandation, personnalisation), au sein d’un environnement Google Cloud Platform . Vous interviendrez dans une équipe composée d’un PO, Data Scientist, Lead ML Engineer et ML Engineer . 🛠️ Missions principales Concevoir et développer des pipelines ML robustes et scalables Industrialiser et déployer des modèles de ML en production (API REST) Mettre en place des tests A/B et suivre la performance des modèles Assurer le monitoring et le contrôle des performances Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables et sécurisées Construire et maintenir les pipelines CI/CD Collaborer avec les équipes Data & Tech Participer aux phases de cadrage et d’amélioration continue 🧰 Stack technique Cloud : GCP (Vertex AI, BigQuery, Cloud Run) Langages : Python, SQL ML : TensorFlow, Scikit-learn API : Flask / FastAPI Orchestration : Airflow Infra : Terraform CI/CD : GitLab CI/CD
Freelance
CDD

Offre d'emploi
Product Owner Data

SMARTPOINT
Publiée le
Agile Scrum

6 mois
50k-55k €
400-450 €
Île-de-France, France
En tant que Product Owner Data, vous serez responsable de : Recueillir et analyser les besoins métiers en lien avec les équipes métiers et techniques Définir et prioriser le backlog produit en fonction de la valeur business Rédiger les user stories et spécifications fonctionnelles Piloter les développements en collaboration avec les équipes Data (Data Engineers, Data Analysts, Data Scientists) Garantir la qualité des livrables et leur adéquation avec les besoins utilisateurs Suivre les indicateurs de performance et proposer des axes d’amélioration Animer les rituels Agile (daily, sprint planning, review, rétrospective)
CDI
Freelance

Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D

SMILE
Publiée le
Méthode Agile

1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Freelance
CDI

Offre d'emploi
Coordinateur de projet Data (Luxembourg)

EXMC
Publiée le
Gestion de projet

1 an
Luxembourg
Le consultant intègrera l’équipe Data qui a en charge la mise à disposition des données pour les différents consommateurs Data du client (BI, Data Scientists, équipes métiers, etc.). Dans ce cadre, le consultant interviendra en qualité de Coordinateur de Projet sur la gestion « end-to-end » des projets Data, depuis l’analyse et la formalisation des besoins métiers jusqu’à la livraison finale des données, en coordination avec les équipes techniques et métiers concernées. · Planifier, organiser et diriger les projets de l’initiation à la clôture. · Assurer le suivi de l’avancement des projets et la gestion des risques. · Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. · Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. · Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en oeuvre conformément aux spécifications. · Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. · Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. · Préparer et présenter des rapports d’avancement aux parties prenantes.
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers

Les questions fréquentes à propos de l’activité d’un Data scientist

Quel est le rôle d'un Data scientist

À l'ère du Big Data, le Data Scientist est un peu l'évolution du Data Analyst. C'est un spécialiste de l'analyse et de l'exploitation de données au sein d'une entreprise. Son rôle est de donner du sens à ces données, afin d'en extraire de la valeur, pour permettre à l'entreprise de prendre des décisions stratégiques et/ou opérationnelles. Il fait partie des fonctions à haute responsabilité dans une entreprise.

Quels sont les tarifs d'un Data scientist

Le taux journalier moyen d'un freelance data scientist est d'environ 450 €/jour. Il peut varier en fonction des années d'expérience et de la position géographique du professionnel. Le salaire d'un data analyst débutant est de 35 K€. Le salaire du data scientist expérimenté, oscille entre 50 K€ à 60 K€.

Quelle est la définition d'un Data scientist

Le Data Scientist est un élément indispensable de l'entreprise, étant donné qu'il est chargé de l'analyse de données massives appelée Big Data. C'est lui qui gère la collecte, le stockage, l'analyse et l'exploitation de millions de données recueillies via différents canaux. Ces données servent à analyser les performances de l'entreprise, et à anticiper les comportements des consommateurs, ou les nouvelles tendances. C'est un domaine à la fois excitant et prometteur. Il génère de nouveaux challenges, et permet aux professionnels de toujours gagner en compétences. Le Data Scientist a de solides connaissances en marketing. Ce professionnel est très sollicité auprès des entreprises qui cherchent sans cesse à améliorer leurs performances et à rester compétitives. Après avoir terminé son analyse, le Data Scientist va alors rédiger un rapport où il explique ses conclusions à la direction, ou à son client.

Quel type de mission peut gérer un Data scientist

Le Data Scientist a pour principale mission de « prédire l'avenir ». La quantité importante de données que génèrent maintenant les entreprises peut se révéler très utile si elle est bien utilisée. Le scientifique des données pourra alors assurer le développement stratégique de l'entreprise, ainsi que sa transformation digitale. Pour y parvenir, il doit déchiffrer les masses de données opaques afin de leur donner un sens. Son rôle est donc de transformer des données en informations exploitables. Il pourra proposer à ses clients des solutions de pilotage IT pour répondre à des besoins spécifiques. Le fait de créer des algorithmes lui permettra d'anticiper sur les comportements et les besoins futurs, afin d'orienter des décisions importantes. C'est d'ailleurs cette forme de créativité qui le distingue du Data Analyst. Grâce à son expertise, le Data Scientist doit pouvoir présenter des propositions innovantes et pertinentes à ses clients, implémenter et déployer des modèles de machine learning, et enfin communiquer ses conclusions aux services concernés. Il peut intervenir pour des projets à court, ou à moyen terme.

Quelles sont les compétences principales d'un Data scientist

Le Data Scientist doit maîtriser de nombreux savoir-faire pour bien effectuer ses missions. Nous pouvons en mentionner quelques-uns : • Être capable d'analyse efficacement des données statistiques et les modéliser • Avoir une bonne connaissance des outils de programmation et du langage informatique • Maîtriser les techniques de visualisation des données • Posséder de fortes affinités pour le marketing • Avoir le sens des affaires et une bonne aptitude à la communication • Être rigoureux, organisé, avec une force de proposition • Pouvoir respecter la confidentialité des données • Savoir travailler en équipe, sous pression et gérer le stress • Mener une veille IT

Quel est le profil idéal pour un Data scientist

De nombreuses écoles commencent à offrir des diplômes en mathématiques et applications avec spécialité statistique, ingénierie Big Data, ou analyse des données massives. Il existe aussi d'autres formations permettant d'accéder au métier de Data Scientist, notamment en école supérieure d'informatique, de statistique, ou en école d'ingénieur. Il faudra tout de même justifier d'une expérience de 4 à 5 ans dans l'analyse de données ou dans un environnement datacenter.
174 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous