Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist à Paris

Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume. Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique. Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise. In fine, il veille à proposer des solutions de protection efficaces. Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles. Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.

Votre recherche renvoie 45 résultats.
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance
CDI

Offre d'emploi
INGENIEUR MACHINE Learning Engineering

Publiée le
MySQL
Python

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance
CDI

Offre d'emploi
Lead ML Engineering

Publiée le
Machine Learning

3 mois
Paris, France
Télétravail partiel
la prestation consistera à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Expertises requises pour réaliser la prestation de Lead Machine Learning Ingenieur : • Au moins 5 ans d’expérience dans un environnement data/machine learning • Expériences dans le développement de modèles de machine learning • Expériences dans le déploiement en production de modèles de machine learning • Expériences sur la Google Cloud Platform : Composer/CloudSQL/CloudRun/IAM • Expériences avec des technologies de type Flask, FastAPI, SQLalchemy, Pgvector, Pandas, Hugging face • Expériences intégrant les langages Python et SQL • Expériences intégrant Terraform et Terragrunt • Solides expériences intégrant du Machine Learning, Deep Learning et des concepts liés à l’IA • Solides connaissances des modèles et systèmes de recommandation • Solides connaissances en data : structures de données, code, architecture • Expériences utilisant Gitlab et Gitlab CI/CD • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Capacité à accompagner et à motiver une équipe technique • Expériences en méthodes Agile : de préférence Scrum ou Kanban
Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS

Publiée le
AWS Cloud
PySpark
Python

3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Data Warehouse
Oracle
SQL

1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Développeur Python Expert – IA

Publiée le
IA
MLOps
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance

Mission freelance
Développeur Go / Backend Kubernetes

Publiée le
API
Go (langage)
Kubernetes

12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Publiée le
.NET Framework

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.

Les questions fréquentes à propos de l’activité d’un Data scientist

Quel est le rôle d'un Data scientist

À l'ère du Big Data, le Data Scientist est un peu l'évolution du Data Analyst. C'est un spécialiste de l'analyse et de l'exploitation de données au sein d'une entreprise. Son rôle est de donner du sens à ces données, afin d'en extraire de la valeur, pour permettre à l'entreprise de prendre des décisions stratégiques et/ou opérationnelles. Il fait partie des fonctions à haute responsabilité dans une entreprise.

Quels sont les tarifs d'un Data scientist

Le taux journalier moyen d'un freelance data scientist est d'environ 450 €/jour. Il peut varier en fonction des années d'expérience et de la position géographique du professionnel. Le salaire d'un data analyst débutant est de 35 K€. Le salaire du data scientist expérimenté, oscille entre 50 K€ à 60 K€.

Quelle est la définition d'un Data scientist

Le Data Scientist est un élément indispensable de l'entreprise, étant donné qu'il est chargé de l'analyse de données massives appelée Big Data. C'est lui qui gère la collecte, le stockage, l'analyse et l'exploitation de millions de données recueillies via différents canaux. Ces données servent à analyser les performances de l'entreprise, et à anticiper les comportements des consommateurs, ou les nouvelles tendances. C'est un domaine à la fois excitant et prometteur. Il génère de nouveaux challenges, et permet aux professionnels de toujours gagner en compétences. Le Data Scientist a de solides connaissances en marketing. Ce professionnel est très sollicité auprès des entreprises qui cherchent sans cesse à améliorer leurs performances et à rester compétitives. Après avoir terminé son analyse, le Data Scientist va alors rédiger un rapport où il explique ses conclusions à la direction, ou à son client.

Quel type de mission peut gérer un Data scientist

Le Data Scientist a pour principale mission de « prédire l'avenir ». La quantité importante de données que génèrent maintenant les entreprises peut se révéler très utile si elle est bien utilisée. Le scientifique des données pourra alors assurer le développement stratégique de l'entreprise, ainsi que sa transformation digitale. Pour y parvenir, il doit déchiffrer les masses de données opaques afin de leur donner un sens. Son rôle est donc de transformer des données en informations exploitables. Il pourra proposer à ses clients des solutions de pilotage IT pour répondre à des besoins spécifiques. Le fait de créer des algorithmes lui permettra d'anticiper sur les comportements et les besoins futurs, afin d'orienter des décisions importantes. C'est d'ailleurs cette forme de créativité qui le distingue du Data Analyst. Grâce à son expertise, le Data Scientist doit pouvoir présenter des propositions innovantes et pertinentes à ses clients, implémenter et déployer des modèles de machine learning, et enfin communiquer ses conclusions aux services concernés. Il peut intervenir pour des projets à court, ou à moyen terme.

Quelles sont les compétences principales d'un Data scientist

Le Data Scientist doit maîtriser de nombreux savoir-faire pour bien effectuer ses missions. Nous pouvons en mentionner quelques-uns : • Être capable d'analyse efficacement des données statistiques et les modéliser • Avoir une bonne connaissance des outils de programmation et du langage informatique • Maîtriser les techniques de visualisation des données • Posséder de fortes affinités pour le marketing • Avoir le sens des affaires et une bonne aptitude à la communication • Être rigoureux, organisé, avec une force de proposition • Pouvoir respecter la confidentialité des données • Savoir travailler en équipe, sous pression et gérer le stress • Mener une veille IT

Quel est le profil idéal pour un Data scientist

De nombreuses écoles commencent à offrir des diplômes en mathématiques et applications avec spécialité statistique, ingénierie Big Data, ou analyse des données massives. Il existe aussi d'autres formations permettant d'accéder au métier de Data Scientist, notamment en école supérieure d'informatique, de statistique, ou en école d'ingénieur. Il faudra tout de même justifier d'une expérience de 4 à 5 ans dans l'analyse de données ou dans un environnement datacenter.
45 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous