Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris
Votre recherche renvoie 39 résultats.
Offre d'emploi
Expert Data Gouvernance H/F
Avanda
Publiée le
Apache Airflow
Collibra
Databricks
12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Offre d'emploi
Analytics Engineer
ONSPARK
Publiée le
DBT
SQL
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Analytics Engineer pour accompagner nos clients grands comptes. Responsabilités Concevoir et maintenir des modèles de données analytiques Développer des pipelines de transformation de données (ELT/ETL) Garantir la qualité, la documentation et la cohérence des données Collaborer avec les Data Analysts pour répondre aux besoins métier Mettre en place des tests et des pratiques de data quality
Mission freelance
PMO / Chef de projet BCBS 239
FINAX Consulting
Publiée le
Finance
8 mois
540-1 010 €
Paris, France
Chef de projet / PMO BCBS 239 (H/F) Contexte Nous recherchons un consultant PMO / Chef de projet BCBS 239 pour le compte d’un de nos clients banque dans le cadre d’un programme de transformation autour de la gouvernance et de la qualité des données. Rôles et responsabilités Piloter les activités BCBS 239 (planning, risques, reporting) Structurer la gouvernance data (rôles, responsabilités, comités) Suivre les dispositifs de data quality et les plans de remédiation Coordonner les parties prenantes et assurer le reporting projet Mettre en place et suivre le data lineage Compétences requises 7 ans d’expérience minimum en gestion de projet / PMO Expérience récente sur BCBS 239 indispensable Bonne maîtrise des sujets Risk & Data Expérience en gouvernance et qualité des données Excellentes capacités de coordination et communication Détails Démarrage : mai Durée : fin 2026 Charge : 100% Lieu : Paris et proche banlieue
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Mission freelance
Consultant Azure Data Factory (H/F)
Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps
6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
Mission freelance
Architecte Applicatif _ Java _ Moyens de Paiements
CAT-AMANIA
Publiée le
Architecture
Cloud
Java
1 mois
500-650 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Architecte Applicatif. Connaissance de l'environnement bancaire et des moyens de paiements Connaissance de l'environnement bancaire et des moyens de paiements Expérience sur des architectures containerisées Modélisation de processus Métier, et Architecture de Données (MCD, Data Quality) Maîtrise des technologies Open, Natives et IA Gén : solutions techniques et Architecture Technique (K8S/Openshift/Linux/RedHat/Cloud/IA Gén) - Solide expérience en architecture applicative et en intégration de systèmes d’information aussi bien sur des socles java, J2EE que dans les environnements containerisés. - Capacité à traduire des besoins fonctionnels en solutions applicatives concrètes. - Bonne compréhension des patterns d’intégration (API, messaging, événements, synchrones/asynchrones). - Connaissance des enjeux de performance, de résilience et de montée en charge. - Sensibilité aux problématiques de sécurité applicative et de conformité. - Capacité à évoluer dans des environnements complexes, multi-applicatifs et fortement interconnectés. - Analyser les évolutions demandées de leur cohérence avec l’architecture existante. - Proposer des solutions applicatives adaptées, en tenant compte des contraintes de performance, de sécurité et de scalabilité. - Etudier les impacts sur les composants applicatifs, les interfaces et les flux. - Contribuer à la documentation d’architecture (Avis, schémas, dossiers d’instruction). - Participer aux réunions d’architecture, aux ateliers de cadrage et aux instances de validation.
Offre d'emploi
Consultants MS BI Confirmés H/F
MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI
Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
Mission freelance
Data Manager (Power BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Offre d'emploi
Senior Consultant / Expert Technico-Fonctionnel Informatica MDM (H/F) – CDI
CAPEST conseils
Publiée le
Informatica
Master Data Management (MDM)
12 mois
Paris, France
A pourvoir de préférence en CDI chez le client final mais je regarderai également les profils des candidats qui souhaitent rester indépendants (je vais avoir d'autres besoins sous peu). Pour ce poste , des déplacements réguliers devront être effectués en Province. Dans le cadre du renforcement de notre plateforme data et de notre stratégie de gouvernance des données , nous recherchons un Consultant Senior Technico-Fonctionnel Informatica MDM . Vous rejoindrez une équipe de 5 experts data dédiée au Master Data Management , responsable de la gestion et de la fiabilisation des données de référence (Customer, Partner, Product, etc.). Vous interviendrez sur l’évolution et l’exploitation de la plateforme Informatica Master Data Management , au cœur des enjeux de data governance, data quality et data integration . Vos missionsExpertise et évolution de la plateforme MDM Apporter votre expertise sur la solution Informatica MDM . Concevoir et faire évoluer les modèles de données de référence (Customer / Party / Product / Organization) . Paramétrer et configurer les composants MDM (data model, match & merge, survivorship rules). Participer à l’architecture et aux évolutions de la plateforme MDM. Conception technico-fonctionnelle Animer des ateliers avec les équipes métiers et les data owners. Traduire les besoins en spécifications fonctionnelles et techniques . Participer aux phases de développement, configuration et intégration. Piloter les phases de tests, recette et déploiement . Gouvernance et qualité des données Contribuer à la mise en œuvre des pratiques de data governance et data quality . Définir et suivre les règles de matching, déduplication et consolidation des données . Participer à l’amélioration des processus de gestion des données de référence. Leadership et collaboration Être référent technique MDM au sein de l’équipe. Accompagner les équipes métiers dans l’usage et la compréhension des données. Participer à la montée en compétence des membres de l’équipe.
Offre d'emploi
DATA ANALYST AZURE / POWER BI
UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Data Analyst Azure / Power BI : ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production. FORMATION, PROFIL ET EXPERIENCE : · Expérience significative dans le domaine de trois années d’expérience · Connaissance approfondie de Azure Data Factory · Connaissance approfondie des bases de données relationnelles et du langage SQL · Connaissance de TFS / Git (ou à minima autre gestionnaire de code source) · Expérience en déploiement continu CI/CD (Azure Devops)
Mission freelance
Senior Data Analyst Power BI
ARGANA CONSULTING CORP LLP
Publiée le
Amazon Redshift
API REST
AWS Cloud
12 mois
350-400 €
Paris, France
Nous recherchons un Senior Data Analysr Power BI . La mission implique la conception, le développement et la mise en œuvre de solutions analytiques avancées pour répondre aux besoins des métiers. 🎯 Missions principales Accompagner les utilisateurs dans la définition et la formalisation des besoins et des enjeux de restitution et de datavisualisation. Animer des ateliers de type “Design” pour clarifier les besoins et proposer des solutions adaptées. Participer aux travaux de cadrage SI , études d’opportunité et de faisabilité. Recueillir et rédiger les expressions de besoins et spécifications fonctionnelles de solutions analytiques, et valider les livrables. Concevoir et réaliser les restaurations Power BI : rapports, indicateurs et tableaux de bord. Participer à la documentation des règles de sécurité des données et des applications. Élaborer les manuels utilisateurs et les supports de formation aux applications de datavisualisation. Rédiger les spécifications techniques et cahiers des charges pour les POC ou déploiements. Préconiser les adaptations et améliorations des processus existants . 📊 Livrables Développement et déploiement des cas d’usage (cartographies, tableaux de bord, data quality, alimentation du DatalakeHouse…). Documentation des règles de calcul et d’agrégation pour les indicateurs. Rédaction de plans de tests, cahiers de recette et supports utilisateurs . Production et mise à disposition des tableaux de bord . 🛠️ Environnement technique Power BI (Desktop et Service) Databricks, Nifi, RedShift Power Automate, Power Platform Cloud AWS Smart Data, API REST
Mission freelance
Consultant GMAO PLM
PARTENOR
Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)
PLM (Product Lifecycle Management)
1 an
400-690 €
Paris, France
Dans le cadre de ses activités, notre client recherche un(e) Ingénieur données techniques et GMAO - domaine industriel. Vous travaillerez en étroite collaboration avec les équipes métiers pour garantir la fiabilité et la structuration des données techniques. Missions : En lien avec les représentants de la cellule compression, vous serez en charge de : La modification et création de structures d’ouvrages dans la GMAO La gestion de réseaux et sites complexes (interconnexions, rebours, compression) Le contrôle et la validation de schémas techniques (PID / PFD / UFD) Le Data Quality Management appliqué à la structure d’ouvrages La collecte d’archives techniques et réglementaires via différents outils (ONE, serveurs, SharePoint, Teams) L’intégration documentaire dans l’outil PLM L’export et l’analyse de données techniques L’intégration du processus de cycle de vie documentaire dans le PLM La participation aux réunions de suivi Répondre aux sollicitations issues des remontées à l’échelle nationale Environnement de travail : Forte composante gestion documentaire (PLM, cycle de vie documentaire) Analyse et contrôle de schémas techniques (PID / PFD / UFD) Travail sur des réseaux industriels complexes (compression, gaz, etc.) Activités de collecte d’archives techniques
Offre d'emploi
Consultant MSBI
UCASE CONSULTING
Publiée le
ADFS
PowerBI
SQL
3 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre du renforcement de son pôle data, notre client dans le secteur de l'immobilier français, acteur majeur de la transformation urbaine bas carbone, recherche un Consultant Microsoft BI confirmé . Vous interviendrez au sein de la DSI sur des projets data stratégiques, notamment autour du MDM Marketing / RFE , avec un fort enjeu de structuration et de fiabilisation des données. Missions principales Développer et optimiser des bases de données SQL Server Concevoir et maintenir des scripts SQL / procédures stockées Développer des pipelines Azure Data Factory Participer à la mise en place des bonnes pratiques Data (CI/CD, DevOps, Data Quality) Proposer des axes d’ optimisation des performances Rédiger la documentation technique et participer aux recettes Gérer le code source ( Azure DevOps / Git ) Préparer les mises en production et les livrables ass Environnement technique : Base de données : SQL Server ETL / Data : Azure Data Factory DevOps : Azure DevOps, CI/CD Versionning : Git / TFS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
39 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois