Trouvez votre prochaine offre d’emploi ou de mission freelance Data science à Paris

Votre recherche renvoie 28 résultats.
CDI
Freelance

Offre d'emploi
DATA SCIENTIST

Publiée le
Natural Language Processing (NLP)

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Freelance

Mission freelance
Data Engineer Azure / Snowflake

Publiée le
Azure
Databricks
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Freelance

Mission freelance
Data modeling expert - H/F - 75 + remote

Publiée le
AWS Cloud
Collibra
DataGalaxy

3 mois
320-590 €
Paris, France
Télétravail partiel
Notre client recherche un expert en data modeling et gouvernance pour renforcer la cohérence, la qualité et la documentation des modèles de données au sein de la plateforme. Mission * Concevoir et maintenir les modèles conceptuels, logiques et physiques des différents domaines de données * Définir et documenter les standards de modélisation (naming conventions, relations, typologies, clés) * Garantir la cohérence et la traçabilité des données entre les couches Bronze / Silver / Gold * Collaborer avec les équipes Data Engineering, Data Science et Métiers pour assurer l’alignement fonctionnel et technique * Enrichir et maintenir le Data Catalog (DataGalaxy) : dictionnaire de données, business glossary, data lineage * Définir et suivre les indicateurs de qualité de la donnée (completude, cohérence, fraicheur) * Promouvoir les bonnes pratiques de gouvernance et documentation au sein de l’équipe
Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance
CDI

Offre d'emploi
Delivery Manger

Publiée le
Dataiku
Gestion de projet

1 an
40k-45k €
250-700 €
Paris, France
Télétravail partiel
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Responsabilités Gestion de la livraison : Supervisation de l'ensemble du cycle de vie du projet, en garantissant la livraison des solutions dans les délais impartis, tout en respectant les contraintes budgétaires et les exigences de qualité. Coordonnation des équipes pluridisciplinaires (IT, métiers, partenaires externes) et participer à la synchronisation des différents projets du programme. Suivre l'avancement du projet et communiquer à la Direction de Programme les indicateurs de performance du projet. Gestion des risques et des dépendances : Identification, évaluation et suivi des risques liés à la livraison du projet en mettant en place des plans d'action correctifs pour minimiser leur impact. Suivre les adhérences entre les différents projets du programme en s'assurant que les interfaces et les intégrations soient optimisées et sans friction. Collaboration avec la Direction de Programme et les Parties Prenantes : Suivre une communication fluide et transparente avec les parties prenantes, notamment avec la Direction de Programme. Préparation et animer les comités de suivi et de pilotage du projet. Suivi de l'alignement des objectifs stratégiques avec les actions opérationnelles menées sur le terrain.
Freelance

Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)

Publiée le

12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Ingénieur de production - Data / GCP

Publiée le
Big Data
Google Cloud Platform (GCP)
Production

12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Freelance

Mission freelance
Data Scientist sénior traitement du signal acoustique

Publiée le
Deep Learning
Machine Learning
Python

1 an
500-650 €
Paris, France
Télétravail partiel
Dans le cadre d'une création de poste chez l'un de nos clients grand compte dans l'industrie, nous recherchons un(e) data scientist sénior ayant de l'expérience sur le traitement de signal acoustique. Notre client souhaite moderniser ses pratiques dans le cadre de ses opérations de maintenance de son matériel. Vous aurez comme objectif : Etude du besoin, analyse du système et compréhension des données Rédaction de MEMO retraçant les besoins, l'état de l'art, l'approche utilisée, les performances... Echange avec les métiers pour cadrer le besoin, comprendre le métier, les systèmes... Apporter la vision data science pour permettre aux métiers de comprendre la valeur de la donnée Analyse, mise au point, visualisations et validation de la pertinence des données d'aide à la maintenance issues des équipements embarqués et débarqués Définition et implémentation de modèles statistiques. Simulation des résultats Définition et implémentation de modèles de Machine Learning. Simulation des résultats Rédaction des spécifications fonctionnelles détaillées (code source des modèles et règles de pronostics) Définition et implémentation de réseau neuronaux. Simulation des résultats Définition et implémentation de traitement d'image et acoustique. Simulation des résultats Validation et qualification des données issues des équipements de diagnostics Interface avec les équipes de maitrise d'œuvre pour l'industrialisation des algorithmes Organisation et conduite des réunions dont il a la charge sous le pilotage du chef de projet Supports de présentation destinés à la communication interne sur l'avancement des projets; tenue des tableaux de bord Rédaction des comptes rendus des réunions auxquelles vous participez
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance
CDI

Offre d'emploi
Business Analyste

Publiée le
Business Analysis
User story

1 an
40k-45k €
260-550 €
Paris, France
Télétravail partiel
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet AVE de refonte de l'application Amect de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers et définition des User Stories : Collaborer avec les équipes métiers et le Data Office pour comprendre les besoins en matière de données, d'analyses, et de reporting, et les traduire en user stories claires et compréhensibles pour les équipes de développement. Définition des user journeys pour chaque cas d'usage métier, en s'assurant que les expériences utilisateurs soient optimisées et que les solutions proposées apportent une réelle valeur ajoutée. Travaille pour le Product Owner pour prioriser les user stories dans le backlog, en fonction de l'impact métier, de la complexité technique et des objectifs de chaque projet et du programme dans sa globalité. Interface entre les équipes métiers / Data Office et les équipes IT : Participation en tant qu'intermédiaire entre les équipes métiers et les équipes IT, en s'assurant que les besoins métiers sont bien compris et traduits en solutions techniques adéquates. Participation aux cérémonies agiles (daily stand-ups, sprint planning, sprint reviews, rétrospectives) pour assurer la continuité et la bonne compréhension des exigences tout au long du développement de la solution. Accompagnement des équipes IT pour s'assurer que les solutions livrées répondent aux critères d'acceptation des user stories et aux objectifs métier. Suivi des sprints et validation des incréments : Suivi des sprints et l'avancement des incréments de produit, en veillant à ce que chaque fonctionnalité développée soit alignée avec les attentes des utilisateurs et des parties prenantes. Teste et validation des incréments produits à chaque fin de sprint, en s'assurant que les critères d'acceptation définis dans les user stories sont respectées et en recueillant les retours des utilisateurs. Proposition pour des améliorations et des ajustements en continu en fonction des retours d'expérience, des évolutions des besoins, et des nouvelles priorités métier. Documentation et gestion du backlog : Suivi de la création et la mise à jour en continu des user stories et des acceptance criteria dans le backlog, en collaboration avec le Product Owner et les parties prenantes métiers et Data Office. Documentation des processus métiers, les user journeys et les flux de données associés, afin d'assurer une compréhension commune et de faciliter les développements futurs.

Les métiers et les missions en freelance pour Data science

Data scientist

Le / La data scientist analyse et modélise de grandes quantités de données en utilisant des outils avancés comme le machine learning pour extraire des informations exploitables et guider les décisions stratégiques.

Data analyst

Le / La data analyst transforme les données brutes en rapports clairs et exploitables en utilisant des outils de visualisation et d'analyse statistique, souvent en collaboration avec des équipes de data science.

Développeur·euse IA/Machine Learning

Le / La développeur·euse IA / Machine Learning conçoit et implémente des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problématiques complexes liées aux données.

Directeur·rice / Responsable de la data (Chief Data Officer)

Le / La responsable de la data supervise les stratégies de gestion et d’analyse des données, en utilisant des approches de data science pour maximiser la valeur des données dans l’entreprise.

28 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous