Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris

Votre recherche renvoie 39 résultats.
Freelance

Mission freelance
Consultant senior data governance

Mon Consultant Indépendant
Publiée le
Data quality

3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Freelance

Mission freelance
Profil RDARR, data quality, data lineage, data governance

Mon Consultant Indépendant
Publiée le
Data management

6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
Freelance

Mission freelance
Consultant Sales Ops / CRM Operations Salesforce (H/F)

Freelance.com
Publiée le
CRM
Data quality
Salesforce

3 mois
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Sales / Investor Coverage évoluant dans un environnement international , nous recherchons un Consultant Sales Ops / CRM Operations orienté exécution et optimisation des outils commerciaux. Le consultant interviendra comme référent opérationnel CRM et outils go-to-market , avec un focus fort sur Salesforce , la qualité de la donnée et l’accompagnement des équipes commerciales au quotidien. L’objectif de la mission est de fiabiliser l’existant, améliorer l’adoption des outils et optimiser les workflows commerciaux , sans refonte complète du CRM. Missions principales Administrer, structurer et optimiser l’environnement Salesforce Garantir la qualité, la cohérence et la complétude des données CRM Structurer et fiabiliser les pipelines commerciaux Optimiser les workflows liés à la prospection, au lead management et au suivi des opportunités Mettre en place et améliorer les reportings, dashboards et KPI commerciaux Gérer le backlog des demandes métiers et suivre les évolutions livrées Assurer la coordination entre le CRM et les autres outils de l’écosystème commercial Accompagner les équipes dans l’usage quotidien des outils Identifier les irritants opérationnels et proposer des améliorations concrètes Assurer la documentation, la traçabilité des changements et la mise à jour des procédures Participer à la montée en compétence des utilisateurs Le poste comporte une forte dimension de support de proximité entre les équipes métier, la donnée et les outils digitaux .
Freelance

Mission freelance
Consultant Data Office – Data Management / Data Quality / Migration

NOVAMINDS
Publiée le
Data governance

8 mois
400-650 €
Paris, France
Objectif de la mission Une opération de rapprochement entre deux acteurs du secteur financier a conduit à la mise en place d’un programme d’intégration. Ce programme couvre plusieurs dimensions – juridique, opérationnelle, informatique et réglementaire – avec pour objectif de consolider les plateformes, d’harmoniser les architectures de données et d’assurer la continuité de service aux clients. L’entité issue de ce rapprochement doit mener une transition, impliquant le maintien des systèmes existants des deux organisations tout en migrant progressivement vers des architectures cibles. Durant cette phase transitoire, la maîtrise de l’intégrité, de la qualité, de la traçabilité et de la gouvernance des flux de données constitue un enjeu central. Dans ce contexte, les travaux portent notamment sur l’intégration des flux de données des deux entités, incluant les données de référence, les données calculées et les jeux de données de reporting, sur des solutions à la fois transitoires et cibles. Un axe structurant du programme concerne les capacités nécessaires à cette intégration des données. Prestations demandées Le consultant sélectionné sera intégré à l’équipe Data Office et jouera un rôle clé au sein du stream Data Migration. La mission couvre les domaines suivants : 2.1 Collecte des cas d’usage – besoins en données La mission consiste à collecter, formaliser et documenter les besoins métiers en données sur les trois couches de solution de la fusion : Solutions cibles : besoins en données pour la future plateforme consolidée Solutions transitoires : flux de données intermédiaires et passerelles entre systèmes Maintien des systèmes legacy : besoins en données nécessaires à la continuité d’exploitation des systèmes existants pendant la période de migration Cela implique l’animation d’ateliers structurés avec les parties prenantes métiers et IT, l’analyse des écarts entre l’existant et la cible, ainsi que la production de documents formels d’expression de besoin. 2.2 Conception de la traçabilité des données (Data Lineage) Concevoir et maintenir une traçabilité bout en bout des données couvrant : Les flux de données depuis les sources jusqu’aux usages sur l’ensemble des couches de solution L’identification des règles de transformation, des logiques de calcul et des dépendances de données La cartographie des flux de données des systèmes vers les reportings cibles Une documentation conforme aux standards du Data Office (dictionnaire de données, modèle d’information d’entreprise) 2.3 Feuille de route de livraison des données Définir et maintenir une feuille de route de livraison des données garantissant la mise en production de tous les cas d’usage aux dates prévues. Cela inclut : L’ordonnancement des livraisons de données en cohérence avec les jalons du programme L’identification du chemin critique, des dépendances et des conditions de disponibilité des données La coordination avec les équipes IT et métiers pour assurer la faisabilité des délais Le signalement des risques et la proposition de plans de mitigation lorsque les délais sont menacés 2.4 Participation aux ateliers de conception de solution Participer activement aux ateliers de conception technique et fonctionnelle avec les équipes IT et métiers, en apportant : Une vision data sur les choix d’architecture et d’intégration Des contributions sur les contraintes de qualité de données et les exigences de gouvernance La validation des solutions proposées au regard des besoins data et des obligations réglementaires 2.5 Gestion et suivi du backlog Maintenir un backlog structuré des sujets data ouverts, en assurant le suivi : Des points ouverts, décisions et actions issus des ateliers et instances de gouvernance Du statut des remédiations en cours et des escalades De l’avancement des livraisons par rapport aux engagements De la production et du suivi des KPI mesurant la progression du déploiement de la gouvernance 2.6 Ownership des cas d’usage et point de référence Être le point de référence principal pour tous les cas d’usage de son périmètre, notamment : La responsabilité complète de la documentation et du cycle de vie des cas d’usage Le rôle de point de contact pour les questions métiers et IT sur les cas d’usage attribués La gestion proactive des analyses au niveau des cas d’usage, avec remontée des sujets et proposition de compléments 2.7 Mise en œuvre de la gouvernance et de la qualité des données Veiller à la mise en œuvre effective des principes de gouvernance et de qualité des données définis par le Data Office sur l’ensemble des flux de données attribués, notamment : L’application des matrices RACI et des procédures de gouvernance L’intégration des contrôles qualité dans les workflows opérationnels et IT La contribution aux procédures opérationnelles et à la documentation formelle (descriptions de processus, dictionnaires de données, cadres de restitution) 2.8 Gestion des risques et escalade Identifier de manière proactive et remonter les risques et alertes, notamment : Les risques de qualité de données impactant les reportings ou les livrables clients Les risques de livraison affectant les dates de mise en production des cas d’usage La criticité métier et les échéances réglementaires La disponibilité des données et les chaînes de dépendances La capacité IT et la faisabilité de mise en œuvre Les sujets identifiés lors du suivi des remédiations nécessitant une escalade 2.9 Instances de gouvernance et de suivi Participer aux instances de gouvernance et de pilotage pertinentes, notamment : Les sessions de suivi opérationnel Les revues de qualité de données et de gouvernance Les sessions d’alignement entre IT et métiers 2.10 Documentation Produire et maintenir une documentation de haute qualité sur l’ensemble des domaines de la mission, notamment : Dictionnaires de données et glossaires métiers Descriptions de processus et procédures opérationnelles Cartographies de lineage et schémas de flux Spécifications de besoins, comptes rendus de réunion et journaux de décision Tableaux de bord KPI et rapports d’avancement Toute la documentation doit être conforme aux standards du Data Office. 2.11 Conduite du changement Contribuer aux activités de conduite du changement liées au programme de gouvernance et de qualité des données, notamment : La communication des principes et exigences de gouvernance de données aux parties prenantes métiers et IT Le soutien à l’adoption de nouveaux outils, procédures et standards par les équipes La contribution aux actions de formation et de sensibilisation si nécessaire La facilitation de l’alignement entre les équipes des 2 entités sur les standards et pratiques data
Freelance

Mission freelance
Business Analyst – ALM Treasury Transformation - Paris

Net technologie
Publiée le
ALM
Data quality
Recette

9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
Freelance

Mission freelance
Business Analyst / Data – AML Monitoring - Paris

Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance

1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Freelance
CDI

Offre d'emploi
Chef de projet data Confirmé

VISIAN
Publiée le
Budget Management
Data management
Data quality

1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
Freelance

Mission freelance
Data Manager expert modélisation de données (H/F)

Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake

12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Freelance

Mission freelance
Architecte Data – Azure/Databrics

Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI

6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance
CDI

Offre d'emploi
Data Hub - Data Engineer

Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
39 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous