Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist

Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume. Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique. Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise. In fine, il veille à proposer des solutions de protection efficaces. Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles. Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Votre recherche renvoie 108 résultats.
Freelance
CDD

Offre d'emploi
Lead Consultant Machine Learning Engineering H/F

Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python

12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance
CDI

Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG

Publiée le
Dataiku
Python
Scripting

6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance
CDD

Offre d'emploi
Consultant en Machine Learning H/F

Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)

12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Freelance

Mission freelance
Architecte DATA- Data Architecture

Publiée le
DBT
Python
Terraform

18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Freelance

Mission freelance
Scrum Master - AI (Text-Mining)

Publiée le
AI
Machine Learning
Python

6 mois
480-570 €
Paris, France
Télétravail partiel
Assurer le rôle de Scrum Master pour les équipes de projets d'IA, en garantissant le respect des principes et des bonnes pratiques Agile. Animer la planification des sprints, les réunions quotidiennes, les rétrospectives et les revues. Collaborer étroitement avec les data scientists, les ingénieurs en apprentissage automatique et les analystes métier. Favoriser l'amélioration continue et promouvoir une culture agile au sein de l'équipe. Assurer la coordination avec la direction et les parties prenantes afin d'aligner les objectifs et les livrables du projet.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps

Publiée le
API REST
AWS Cloud
Github

12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Freelance
CDI

Offre d'emploi
Ingénieur DEVOPS / AIOPS Cloud – Projet Data & Machine Learnin

Publiée le
CI/CD
Large Language Model (LLM)
Terraform

3 ans
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du développement de ses activités Cloud et Data, notre client — grand groupe international du secteur Assurance — recherche un Ingénieur DEVOPS / AIOPS afin de renforcer un équipage Agile en charge du RUN et de la mise en production de plateformes de Machine Learning (MLOps). Vous interviendrez dans un contexte Cloud hybride (on-premise / Kubernetes / OpenShift) et collaborerez étroitement avec les équipes Data Scientists, Machine Learning Engineers et Production IT . Vos missions : Intégré(e) au sein d’un équipage applicatif, vous aurez pour principales responsabilités : Participer au MCO des plateformes de Machine Learning (supervision, disponibilité, performances). Accompagner les Data Scientists et ML Engineers dans la mise en production des modèles et la gestion des environnements. Assurer le support N3 , l’analyse et la résolution d’incidents complexes. Contribuer à la mise en place et à l’évolution des chaînes CI/CD (Jenkins, GitLab). Automatiser les processus via Ansible, Terraform, scripts Shell/Python . Garantir l’ exploitabilité et la conformité des solutions (sauvegardes, monitoring, sécurité, documentation). Participer aux revues d’architecture et formuler des avis de production . Être force de proposition dans l’amélioration continue (AIOps, observabilité, automatisation). Prendre part aux cérémonies Agile/Kanban et aux opérations planifiées (HNO, astreintes).
CDI
Freelance

Offre d'emploi
Expert migration SAS vers Dataiku

Publiée le
Dataiku
Méthode Agile
SAS

2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Freelance
CDI

Offre d'emploi
Administrateur Infrastructure / maintenance et évolution de la plateforme IA

Publiée le
DevOps
Docker

1 an
40k-45k €
250-300 €
Île-de-France, France
Contexte Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data d'une institution financière majeure, au sein d'une équipe AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de data science et analyse, depuis la génération de use case jusqu'à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu'une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers la plateforme de Datascience « Sparrow », qui comporte : Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource facilitant les développements des Data Scientist. Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. Un outil de Community Management, Sparrow Academy. L'équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d'être garante de la qualité des livrables de l'ensemble de la direction, de les déployer sur le cloud privé du Groupe et enfin d'assurer la haute disponibilité de l'ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. Nous faisons appel à une prestation en assistance technique pour assurer l'évolution et la haute disponibilité de l'ensemble de nos assets. Missions Administration/Exploitation/Automatisation système d'exploitation de nos clusters Build et optimisation d'images Docker + RUN de nos 400 containers de production (>500 utilisateurs) Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d'évolution de l'architecture Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover Rédaction de documents techniques (architecture, gestion des changes et incidents) Production de livrables de qualité et partage des connaissances à l'équipe Participer à la maintenance/l'évolution des frameworks de data science existants (Python) Participer à la maintenance/l'évolution des pipelines de CI/CD (Gitlab CI, GitOps) Participer à la maintenance/l'évolution de l'Observabilité des plateformes (logging, monitoring, traçabilité) Participer à la mise en production des outils et des solutions IA déployées sur la plateforme Être force de proposition et participer aux POCs
Freelance

Mission freelance
Machine Learning Ops

Publiée le
MLOps
RAG

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Freelance

Mission freelance
Lead Machine leaning engineering

Publiée le
FastAPI
Flask
Gitlab

12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
CDI
Freelance

Offre d'emploi
MLOps Engineer

Publiée le
Docker
Kubernetes
Python

1 an
35k-70k €
440-670 €
Île-de-France, France
Télétravail partiel
En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...

Les questions fréquentes à propos de l’activité d’un Data scientist

Quel est le rôle d'un Data scientist

À l'ère du Big Data, le Data Scientist est un peu l'évolution du Data Analyst. C'est un spécialiste de l'analyse et de l'exploitation de données au sein d'une entreprise. Son rôle est de donner du sens à ces données, afin d'en extraire de la valeur, pour permettre à l'entreprise de prendre des décisions stratégiques et/ou opérationnelles. Il fait partie des fonctions à haute responsabilité dans une entreprise.

Quels sont les tarifs d'un Data scientist

Le taux journalier moyen d'un freelance data scientist est d'environ 450 €/jour. Il peut varier en fonction des années d'expérience et de la position géographique du professionnel. Le salaire d'un data analyst débutant est de 35 K€. Le salaire du data scientist expérimenté, oscille entre 50 K€ à 60 K€.

Quelle est la définition d'un Data scientist

Le Data Scientist est un élément indispensable de l'entreprise, étant donné qu'il est chargé de l'analyse de données massives appelée Big Data. C'est lui qui gère la collecte, le stockage, l'analyse et l'exploitation de millions de données recueillies via différents canaux. Ces données servent à analyser les performances de l'entreprise, et à anticiper les comportements des consommateurs, ou les nouvelles tendances. C'est un domaine à la fois excitant et prometteur. Il génère de nouveaux challenges, et permet aux professionnels de toujours gagner en compétences. Le Data Scientist a de solides connaissances en marketing. Ce professionnel est très sollicité auprès des entreprises qui cherchent sans cesse à améliorer leurs performances et à rester compétitives. Après avoir terminé son analyse, le Data Scientist va alors rédiger un rapport où il explique ses conclusions à la direction, ou à son client.

Quel type de mission peut gérer un Data scientist

Le Data Scientist a pour principale mission de « prédire l'avenir ». La quantité importante de données que génèrent maintenant les entreprises peut se révéler très utile si elle est bien utilisée. Le scientifique des données pourra alors assurer le développement stratégique de l'entreprise, ainsi que sa transformation digitale. Pour y parvenir, il doit déchiffrer les masses de données opaques afin de leur donner un sens. Son rôle est donc de transformer des données en informations exploitables. Il pourra proposer à ses clients des solutions de pilotage IT pour répondre à des besoins spécifiques. Le fait de créer des algorithmes lui permettra d'anticiper sur les comportements et les besoins futurs, afin d'orienter des décisions importantes. C'est d'ailleurs cette forme de créativité qui le distingue du Data Analyst. Grâce à son expertise, le Data Scientist doit pouvoir présenter des propositions innovantes et pertinentes à ses clients, implémenter et déployer des modèles de machine learning, et enfin communiquer ses conclusions aux services concernés. Il peut intervenir pour des projets à court, ou à moyen terme.

Quelles sont les compétences principales d'un Data scientist

Le Data Scientist doit maîtriser de nombreux savoir-faire pour bien effectuer ses missions. Nous pouvons en mentionner quelques-uns : • Être capable d'analyse efficacement des données statistiques et les modéliser • Avoir une bonne connaissance des outils de programmation et du langage informatique • Maîtriser les techniques de visualisation des données • Posséder de fortes affinités pour le marketing • Avoir le sens des affaires et une bonne aptitude à la communication • Être rigoureux, organisé, avec une force de proposition • Pouvoir respecter la confidentialité des données • Savoir travailler en équipe, sous pression et gérer le stress • Mener une veille IT

Quel est le profil idéal pour un Data scientist

De nombreuses écoles commencent à offrir des diplômes en mathématiques et applications avec spécialité statistique, ingénierie Big Data, ou analyse des données massives. Il existe aussi d'autres formations permettant d'accéder au métier de Data Scientist, notamment en école supérieure d'informatique, de statistique, ou en école d'ingénieur. Il faudra tout de même justifier d'une expérience de 4 à 5 ans dans l'analyse de données ou dans un environnement datacenter.
108 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous