Trouvez votre prochaine offre d’emploi ou de mission freelance Data science

Votre recherche renvoie 144 résultats.
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Freelance

Mission freelance
Data Analyst confirmé

Codezys
Publiée le
Data visualisation
PySpark
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
CDI

Offre d'emploi
Manager Plateformes et Outils Data - CDI

CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud

Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
Confluence
IA
JIRA

3 ans
56k-60k €
500-550 €
Île-de-France, France
• Management de Produit & Agilité : Expérience confirmée en tant que Product Owner (ou poste équivalent) dans un contexte agile. Vous savez définir une vision produit, gérer un backlog, rédiger des user stories et animer une équipe agile multidisciplinaire. Une certification Product Owner ou Scrum Master serait un plus • Culture Data Science & IA : Solide culture des technologies Data et IA. Sans être Data Scientist vous-même, vous comprenez les concepts clés du Machine Learning (modèles prédictifs supervisés, scoring, etc.) ainsi que les approches d’IA Générative (LLMs, agents conversationnels…). Vous êtes capable d’échanger de manière fluide avec des Data Scientists sur des sujets comme la performance d’un modèle ou le fine-tuning d’un LLM. Vous vous tenez informé(e) des avancées du domaine (ex : nouvelles offres d’OpenAI/HuggingFace, frameworks comme LangChain) et percevez comment les appliquer concrètement à des cas d’usage métiers • Coordination Technique & MLOps : Bonne compréhension de l’écosystème Data Engineering/MLOps. Vous n’hésiterez pas à participer aux discussions techniques sur l’architecture des solutions IA. Idéalement, vous êtes familier avec le cycle de vie d’un modèle ML : du prototypage à la mise en production Cloud (Azure, conteneurisation Docker/Kubernetes, pipelines automatisés), en incluant le monitoring (data drift, performance, feedback utilisateurs). Vous savez ainsi challenger et soutenir techniquement l’équipe dans les choix de solution, et comprendre les contraintes d’échelle et de sécurité propres au secteur bancaire
Freelance
CDD

Offre d'emploi
Data Analyst Senior H/F

SMARTPOINT
Publiée le
Git
PySpark
Python

12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
CDI

Offre d'emploi
Business Analyst Pharmaceutique F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Analytics/Support N3 - O365

OBJECTWARE
Publiée le
Microsoft SQL Server
Office 365

3 ans
40k-80k €
400-600 €
Île-de-France, France
Prestations demandées Les missions sont: Recommendation dans l'exploitation et la valorisation des multiples modules du produit de la Groupe Control Tower et identifier des leviers d'optimisation et d'amélioration basé sur de la Data avec le(s) Product Owner (s) - Résolution des incidents en relation avec le PO et les équipes techniques (Réseaux, Sécurité, flux...). - Responsable du cycle de vie des incidents jusqu’au rétablissement du service ainsi que les performances de l'environnement. - Communication vers le(s) PO(s) et la hiérarchie. - Garantie de l’exécution des changements (suivi, reporting, communication). - Intervention en support des équipes de développement. - Contrôle des différents environnements et leurs changements de versions. - Capacité à travailler en équipe Agile. - Capacité à travailler dans un environnement complexe Profil recherché : - Expérience confirmée en gestion d’incidents, support et résolution d’anomalies sur des produits IT complexes - Connaissance des différentes composantes dans le cadre d'intgération d'applications ou produits - Esprit analytique, sens de l’initiative, autonomie et orientation résultats - Excellentes capacités de communication et de travail en équipe - Anglais courant indispensable (écrit et oral) - Maîtrise des outils bureautiques (suite O365), des outils ITSM (Service Now) et de dashboarding - Connaissance des métiers de la production IT, des processus ITIL et Dynatrace appréciée Livrables attendus : - Documentation technique à créer ou à mettre à jour, Spécifications, présentations, guides utilisateurs, FAQ… - Supports de communication et d’animation : slides, dashboards, etc. - Comptes-rendus des ateliers et points de suivi - Tableaux de bord de suivi des actions opérationnelles et des incidents produits Environnement technique : - Maitrise MS O365 - Connaissance des requêtages SQL - Connaissance des outils BI Fonction Expertise sur les données techniques de la PROD - Connaissance en statistique - Maitrise des solutions Analytique (Data Science / BI)
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP

Codezys
Publiée le
Azure
Azure DevOps Services
Databricks

12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
CDI
CDD
Freelance

Offre d'emploi
Business Analyst - recherche financière

FIRST CONSEIL
Publiée le
Bloomberg
ESG
IA

6 mois
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe de recherche financière de notre client, nous recherchons un Business Analyst spécialisé en Recherche Financière. Le candidat interviendra à l’interface entre les équipes métiers (analystes, Editing, sales), l’IT et les fournisseurs de données financières (FactSet, Bloomberg, Reuters…). Il contribuera à l’amélioration continue des outils d’analyse, des bases de données et des process de production. Expérience confirmée dans l’analyse et la manipulation de données financières Capacité à comprendre les besoins métiers en analyse equity ou ESG Excellentes capacités d’analyse fonctionnelle, de synthèse et de formalisation. Contribution à des projets transverses : migration de systèmes, intégration de nouvelles sources, automatisation, optimisation de workflows Travailler en interface avec les équipes métiers, IT et Data Recueillir, analyser et formaliser les besoins des équipes de recherche financière. Assurer un rôle de référent data et outils auprès des utilisateurs finaux Gérer, contrôler et optimiser les flux de données provenant de plateformes (FactSet, Bloomberg, Refinitiv...). Fournir un support de niveau 2 sur les outils et plateformes de recherche Définir, suivre et mettre en œuvre les correctifs ou évolutions. Participer aux projets de migration, mise à niveau ou intégration de nouvelles solutions. Rédiger les cahiers des charges et spécifications fonctionnelles. Interagir avec les équipes IT, Infrastructure et Data Science.
Freelance

Mission freelance
Data Engineer Azure / IA

Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks

12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI

Offre d'emploi
Enseignant chercheur en Big Data & IA (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Deep Learning

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance
CDI

Offre d'emploi
PRODUCTION OWNER TECHNIQUE GEC

VISIAN
Publiée le
Docker
Kubernetes

1 an
40k-80k €
400-700 €
Paris, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif d’assurer une mission d'ownership technique du produit "RAG as a Service" Contexte: - Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). - 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists - Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les métiers du Groupe. - Un GRID de GPU on premise utilise pourle training et l'inference. - Pratiques DevSecOps / GitOps / MLOps / LLMOps - Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits. Les missions principales : - Participation à l’élaboration technique et fonctionnelle du produit IA qui sera attribué en lien étroit avec les équipes Solutions Engineering (veille technologique IA) et DevSecOps (industrialisation). - Garantie du respect des contraintes de sécurité, de conformité et de confidentialité applicables aux standards de production IT du groupe (eg. observabilité, auditabilité, traçabilité, contrôle des accès). - Définition et implémentation des mécanismes techniques permettant aux métiers ou à leur IT d’opérer leur propre gouvernance de votre produit. - Établissement, maintient et agrémentation de la feuille de route technique du produit afin d’apporter de la valeur de manière continue à celui-ci en lien avec les besoins de vos clients métiers. - Accompagnement au quotidien des utilisateurs et décideurs métiers et IT du groupe BNP Paribas qui utilisent votre produit et s’assurer avec eux de la mise en application des bonnes pratiques d’usage de celui-ci au sein de leurs équipes. - Supervision des opérations critiques (changement, déploiement, mise à jour) avec une vision de bout en bout des impacts sur les différents services gérés par l’équipe. - Organisation et documentation de la gestion des incidents?: analyse de root-causes, coordination inter-équipes. - Capacité à être moteur dans l’amélioration des processus internes et l’alignement avec les autres équipes du domaine IA & Données. - Capacité à être le représentant de la relation technique avec les fournisseurs qui contribuent à l’élaboration de votre produit (éditeurs logiciels, équipes d’industrialisation, équipes d’infrastructures).

Les métiers et les missions en freelance pour Data science

Data scientist

Le / La data scientist analyse et modélise de grandes quantités de données en utilisant des outils avancés comme le machine learning pour extraire des informations exploitables et guider les décisions stratégiques.

Data analyst

Le / La data analyst transforme les données brutes en rapports clairs et exploitables en utilisant des outils de visualisation et d'analyse statistique, souvent en collaboration avec des équipes de data science.

Développeur·euse IA/Machine Learning

Le / La développeur·euse IA / Machine Learning conçoit et implémente des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problématiques complexes liées aux données.

Directeur·rice / Responsable de la data (Chief Data Officer)

Le / La responsable de la data supervise les stratégies de gestion et d’analyse des données, en utilisant des approches de data science pour maximiser la valeur des données dans l’entreprise.

144 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous