Find your next tech and IT Job or contract Data science

Your search returns 37 results.
Contractor
Permanent

Job Vacancy
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)

Published on
Cloud
Data science
Dataiku

1 year
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Contractor

Contractor job
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j

Published on
Agile Scrum
Dataiku

2 years
400-450 €
Ile-de-France, France
Hybrid
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j Nous sommes à la recherche d'un consultant Dataiku à la recherche d’un profil dataiku dispo immédiatement Technico fonctionnel Maitrisant Product Owner PO et Dataiku Les deux composantes PO + dev dataiku sont obligatoires Maitrisant l'agilité , le développement Dataiku. Avoir une bonne capacité d'adaptation , une excellente expression ecrite et orale . Bonne présentation. Ingénieur Dataiku data science Technico fonctionnel. Mission en region Parisienne 450 e par j
Permanent
Contractor

Job Vacancy
Data Scientist - Sécurité & Guardrailing (Gen AI)

Published on
CI/CD
Data science
Generative AI

1 year
40k-58k €
380-570 €
Paris, France
Hybrid
Nous souhaitons renforcer la sécurité de solutions IA afin de garantir la protection optimale des données et prévenir les potentielles vulnérabilités. Cette demande vise à intégrer un consultant avec une expérience de la sécurisation des solutions IA Gen et de la gestion des risques de fiabilité et de sécurité : Élaborer et mettre en oeuvre des stratégies de sécurisation. Paramétrer les premiers systèmes de sécurisation adaptés aux solutions IA générative. Il s'agit d'un accompagnement très opérationnel, en interaction avec les équipes de Data et IA enginieering, de nos architectes IA et de nos équipes de sécurité opérationnelles. L'expert s'intégrera notamment dans l'équipe produit "plateforme IA Gen" déjà en place en charge du chantier pour couvrir ces aspects sur lesquels sont expertises est attendue. La mission inclut : L'évaluation des solutions existantes en termes de sécurité. La proposition et mise en oeuvre des améliorations concrètes. Le paramétrage des systèmes de sécurisation adaptés aux solutions IA. La création de protocoles de sécurité et mise en place des mesures immédiates. La formation des équipes internes aux bonnes pratiques de sécurité en IA. Un accompagnement pendant la mise en oeuvre des recommandations. Les livrables incluent : Des scénarios de tests Des composants et des process de sécurisation des IA Gen, notamment par Guardrailing, paramétrés et opérationnels Des rapports d'évaluation de performances Des composants et des process automatiques d'évaluation de performances des mécanismes de sécurisation Des composants d'automatisations de systèmes de sécurisation paramétrés et opérationnels.
Contractor

Contractor job
Product Owner Data

Published on
Data science
MLOps
Product management

12 months
500 €
Niort, Nouvelle-Aquitaine
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.
Contractor

Contractor job
Data Analyst - Power BI

Published on
Data analysis
Data science
Data visualisation

6 months
400-500 €
Rennes, Brittany
Hybrid
Nous recherchons un(e) Data Analyst passionné(e) par l’analyse de données et souhaitant évoluer dans un environnement de production dynamique. Vous intégrerez une équipe en charge de la supervision d’un outil de production et serez responsable de la création et du suivi de reporting sur l’activité. Missions principales : Analyser les données issues de l’outil de production pour fournir des reporting réguliers. Identifier et suivre les incidents de production, analyser leur origine et proposer des actions correctives. Mettre en place des actions d’amélioration des processus basées sur les analyses réalisées. Collaborer avec les équipes métiers et techniques pour optimiser le fonctionnement des outils et des processus. Profil recherché : Connaissance de Power BI et capacité à créer des rapports et dashboards clairs et efficaces. Goût pour l’analyse et l’interprétation des données. Capacité à comprendre des processus de production et à proposer des améliorations. Rigueur, curiosité et sens de l’organisation. Junior accepté, envie d’apprendre et de monter en compétence. Conditions : Poste sur site dans un premier temps pour faciliter la montée en compétence. Possibilité de télétravail partiel : 3 jours par semaine après la période initiale.
Contractor

Contractor job
Senior Data Scientist

Published on
ADFS
AI
Azure

6 months
550-650 €
Brussels, Brussels-Capital, Belgium
Hybrid
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Contractor

Contractor job
AI Engineer

Published on
AI
AWS Cloud
Azure

12 months
500-800 €
Paris, France
Hybrid
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Contractor

Contractor job
BI Engineer & Analytics Engineer (Tableau / dbt)

Published on
Azure Data Factory
BI
Big Data

12 months
400-470 €
Lille, Hauts-de-France
Hybrid
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Contractor
Permanent

Job Vacancy
Data Scientist Senior

Published on
Python
SQL

1 year
40k-45k €
400-570 €
Ile-de-France, France
Hybrid
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Permanent

Job Vacancy
Join our Pricing Talent Community

Published on

Horsham, England, United Kingdom
Apply Now Intact Insurance is the new name for RSA in the UK, Ireland, and across Europe. It's a new name and a new way to do business. Backed by global expertise and a commitment to service that feels different, we're focused on making insurance simpler, faster, and more responsive. Shape the Future We're leading a transformation in insurance helping people, businesses and society prosper in good times and be resilient in bad times. When you join us, you're not just taking a job, you're stepping into a career where you can make a real difference. Grow with Us We're customer-driven, community-focused, and committed to helping our people grow. Whether you're early in your journey or bringing years of experience, we'll support you with the tools, flexibility, and opportunities to thrive. You'll Make an Impact You'll be part of a forward-thinking group that's shaping the future of insurance through data-driven decision-making and innovative pricing strategies, contributing to: • Drive smarter pricing decisions by developing and refining models that balance risk, customer value, and business performance. • Collaborate across teams-from underwriting and product to data science and technology-to deliver pricing solutions that are both strategic and customer-centric. • Influence business outcomes by turning complex data into clear insights that guide product development, market positioning, and profitability. • Champion innovation by exploring new methodologies, tools, and technologies that push the boundaries of traditional pricing. • Support a learning culture by sharing knowledge, mentoring peers, and contributing to a community that values continuous improvement and professional growth. Whether you're building models, shaping strategy, or exploring emerging trends, your work will directly impact how we serve our customers and grow our business. Your Skills & Experience You may be a great fit for our Pricing Talent Community if you have: • A background in actuarial science, statistics, mathematics, economics, data science, or a related field. • Experience with pricing techniques, predictive modelling, or data analytics in insurance or financial services. • Strong problem-solving skills and a knack for translating data into actionable insights. •Familiarity with regulatory environments and compliance considerations in insurance pricing.
Permanent
Contractor

Job Vacancy
Data web analyst

Published on
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 year
43k-45k €
430-500 €
Ile-de-France, France
Hybrid
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Contractor
Permanent

Job Vacancy
Administrateur Infrastructure / maintenance et évolution de la plateforme IA

Published on
DevOps
Docker

1 year
40k-45k €
250-300 €
Ile-de-France, France
Contexte Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data d'une institution financière majeure, au sein d'une équipe AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de data science et analyse, depuis la génération de use case jusqu'à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu'une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers la plateforme de Datascience « Sparrow », qui comporte : Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource facilitant les développements des Data Scientist. Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. Un outil de Community Management, Sparrow Academy. L'équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d'être garante de la qualité des livrables de l'ensemble de la direction, de les déployer sur le cloud privé du Groupe et enfin d'assurer la haute disponibilité de l'ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. Nous faisons appel à une prestation en assistance technique pour assurer l'évolution et la haute disponibilité de l'ensemble de nos assets. Missions Administration/Exploitation/Automatisation système d'exploitation de nos clusters Build et optimisation d'images Docker + RUN de nos 400 containers de production (>500 utilisateurs) Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d'évolution de l'architecture Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover Rédaction de documents techniques (architecture, gestion des changes et incidents) Production de livrables de qualité et partage des connaissances à l'équipe Participer à la maintenance/l'évolution des frameworks de data science existants (Python) Participer à la maintenance/l'évolution des pipelines de CI/CD (Gitlab CI, GitOps) Participer à la maintenance/l'évolution de l'Observabilité des plateformes (logging, monitoring, traçabilité) Participer à la mise en production des outils et des solutions IA déployées sur la plateforme Être force de proposition et participer aux POCs
Permanent
Contractor

Job Vacancy
Data Engineer GCP

Published on
BigQuery
Google Cloud Platform (GCP)

6 months
Rouen, Normandy
Hybrid
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Permanent

Job Vacancy
Ingénieur Databricks (F/H)

Published on
Databricks
Microsoft Power BI

40k-45k €
Grenoble, Auvergne-Rhône-Alpes
Hybrid
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Grenoble - 🛠 Expérience de 2 ans minimum Vous souhaitez rejoindre un projet data stratégique dans un environnement Azure ? 🚀 Cette mission est sans doute faite pour vous ! Nous recherchons un.e Data Ingénieur Databricks pour intégrer une équipe en charge de l’alimentation et de l’optimisation d’une plateforme Databricks dédiée au traitement de données sensibles liées à la sécurité💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Alimenter et maintenir une base de données Databricks dans un environnement Azure - Collaborer avec les différentes équipes internes dédiées aux sujets cybersécurité - Intégrer les données issues des environnements utilisateurs et industriels - Concevoir des rapports et indicateurs pour les métiers (sécurité, opérations, management…) - Participer à la création de dashboards et éventuelles alertes, selon les demandes des pôles métiers - Assurer la maintenance et l’évolution des rapports existants - Migrer les flux de traitement Python - DLT (ETL Databricks) - Contribuer, à moyen terme, à la mise en œuvre de cas d’usage machine learning (notions en data science appréciées)
Permanent

Job Vacancy
Ingénieur Databricks (F/H)

Published on
Databricks
Power BI Desktop

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Grenoble - 🛠 Expérience de 2 ans minimum Vous souhaitez rejoindre un projet data stratégique dans un environnement Azure ? 🚀 Cette mission est sans doute faite pour vous ! Nous recherchons un.e Data Ingénieur Databricks pour intégrer une équipe en charge de l’alimentation et de l’optimisation d’une plateforme Databricks dédiée au traitement de données sensibles liées à la sécurité💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Alimenter et maintenir une base de données Databricks dans un environnement Azure - Collaborer avec les différentes équipes internes dédiées aux sujets cybersécurité - Intégrer les données issues des environnements utilisateurs et industriels - Concevoir des rapports et indicateurs pour les métiers (sécurité, opérations, management…) - Participer à la création de dashboards et éventuelles alertes, selon les demandes des pôles métiers - Assurer la maintenance et l’évolution des rapports existants - Migrer les flux de traitement Python - DLT (ETL Databricks) - Contribuer, à moyen terme, à la mise en œuvre de cas d’usage machine learning (notions en data science appréciées)
Contractor
Permanent

Job Vacancy
Data Engineer

Published on
Dataiku
Microsoft Power BI
PySpark

1 year
40k-45k €
400-690 €
Paris, France
Hybrid
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.

Contract roles and jobs for Data science

Data Scientist

The data scientist analyzes and models large datasets using advanced tools such as machine learning to extract actionable insights and guide strategic decisions.

Data Analyst

The data analyst converts raw data into clear, actionable reports using visualization and statistical analysis tools, often collaborating with data science teams.

AI/Machine Learning Developer

The AI / Machine Learning developer designs and implements predictive models and machine learning algorithms to solve complex data-related problems.

Data Director / Chief Data Officer (CDO)

The Chief Data Officer oversees data management and analysis strategies, leveraging data science approaches to maximize the value of data within the company.

37 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us