Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality

Votre recherche renvoie 76 résultats.
Freelance

Mission freelance
Business Analyst Clinical Operational Data (full remote)

Signe +
Publiée le
ERP

6 mois
600 €
Paris, France
Contexte Support des initiatives liées aux données opérationnelles cliniques Collaboration entre équipes métiers, cliniques et data engineering Environnement pharmaceutique / données cliniques Missions principales Recueil, analyse et formalisation des besoins métiers Traduction des besoins en spécifications fonctionnelles pour les équipes data Contribution aux sujets data quality, data lineage et gouvernance Animation d’ateliers métiers et coordination des parties prenantes Participation à la gestion du backlog (Jira) et documentation (Confluence) Compétences requises Expérience en données cliniques / healthcare Standards : HL7, FHIR, ICD-10, LOINC Compréhension des plateformes data (Snowflake, dbt, IICS appréciés) Rédaction de user stories, spécifications fonctionnelles et critères d’acceptation Environnement Agile Informations mission Localisation : Full remote Durée : 6 mois renouvelables
Freelance
CDI

Offre d'emploi
Data Steward F/H

Karma Partners
Publiée le
PowerBI
Python
SQL

6 mois
40k-49k €
400-500 €
Croix, Hauts-de-France
POSTE EN PRE-EMBAUCHE : 6/7 mois en presta suivi d'un CDI Accompagnement des Référents Métiers : Vous serez le point de référence pour guider les Data Owners dans la mise en qualité de leurs données métier, en animant les processus de gouvernance et en favorisant une collaboration efficace entre les équipes. Responsabilité de la gouvernance des données : Vous participerez activement à la gouvernance d'un périmètre applicatif Data, en analysant les anomalies détectées et en proposant des solutions. Gestion et enrichissement du Data Catalog : Vous serez en charge de la mise à jour et de l'enrichissement de notre Data Catalog, en veillant à ce que les données soient bien documentées et facilement accessibles pour les utilisateurs. Vous animerez les sessions de formation et de sensibilisation sur l'utilisation du Data Catalog. Création et suivi des indicateurs de qualité des données : Vous serez responsable de la création, de la mise en œuvre et du suivi des indicateurs de qualité des données. Vous présenterez les résultats aux métiers et vous vous assurerez que les données restent conformes aux exigences et aux évolutions des processus et outils. Transformation des outils de Data Quality : Vous contribuerez à la transformation de nos outils de Data Quality, en jouant un rôle clé dans l'optimisation de la mise en oeuvre des sondes ainsi que des outils de décision et de visualisation.
Freelance
CDI

Offre d'emploi
Senior Data Engineer (5+ ans d'exp)

WINSIDE Technology
Publiée le
Azure
Databricks

3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
ADMIN SPLUNK

CyberTee
Publiée le
Splunk

1 an
400-650 €
Paris, France
Missions: Administration complète de la plateforme Splunk (accès, apps, maintenance, stabilité) Gestion de l’ingestion des données et intégration de nouvelles sources / équipements Supervision de la qualité et normalisation des logs, restauration de la collecte en cas d’incident Conception de dashboards, rapports et KPI de sécurité / monitoring Contribution aux règles de détection et use cases cyber (amélioration de la couverture) Développement de scripts d’automatisation (intégration, data quality, opérations) en Python Production et maintien de la documentation technique et guides utilisateurs Participation aux projets de transformation / migration Splunk Contribution à l’amélioration continue des outils et processus Participation à l’astreinte (rotation) 👤 Profil recherché Expertise avancée Splunk en environnements de production complexes Expérience confirmée sur Splunk ES, ITSI, Splunk Cloud et SC4S Solide expérience en détection (règles, use cases, amélioration de couverture) Compétences en scripting / automatisation (Python) Bon niveau en sécurité réseau, systèmes (OS) et principes fondamentaux de cybersécurité Expérience des environnements ITIL, gestion de tickets et SLA (ex. ServiceNow) Maîtrise de la documentation sous Confluence Français et anglais opérationnels Capacité à intervenir en astreinte (rotation)
Freelance

Mission freelance
Data Manager F/H

DCS EASYWARE
Publiée le

Rennes, Bretagne
DCS recrute ! Pour l'un de nos partenaires basés à Rennes, nous recherchons un Data Manager F/H. Au coeur des enjeux Data, vous interviendrez sur l'ensemble du cycle de gouvernance et de qualité des données : - Pilotage et mise en oeuvre du catalogage de données - Conduite de projets de documentation des données métiers et techniques - Intégration et valorisation des contenus dans l'outil My Data Catalog - Mise en place et animation de démarches de Data Quality Management - Réalisation d'audits de qualité de données et recommandations associées - Proposition et suivi de plans de remédiation - Accompagnement au changement, formation et acculturation Data - Animation de formations sur My Data Catalog - Accompagnement des Data Stewards et Data Custodians (1:1, ateliers individuels ou collectifs) - Création et diffusion de supports de communication (newsletter, intranet) - Animation et participation aux communautés Data (Data Owners, Data Stewards, Data Custodians) Parlons de vous ! Vous évoluez avec aisance dans les univers de la Data Gouvernance, du Data Management et de la Data Quality. Vous maîtrisez les référentiels et pratiques (DAMA), les méthodologies Lean et Agiles, les environnements SI (SIO & legacy), les outils Blueway / MyData Catalog. Vous portez un intérêt marqué pour les sujets IA. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Nous avons hâte de vous lire et de faire votre connaissance ! À très vite ! Ce poste est ouvert aux freelances et portage salariale. data management Blueway
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
CDI

Offre d'emploi
Data-API-Automation Engineer (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen en pleine transformation digitale. Le SI se construit maintenant : urbanisation, gouvernance data, intégration applicative et automatisation des processus. Ils recherchent une personne capable de connecter les briques entre elles et de rendre la donnée exploitable — concrètement. Vous ne serez pas “un développeur de plus”, mais un accélérateur de projets métiers. Vos missions : Intégré à une équipe transverse travaillant avec la DSI et les métiers, vous devrez : * Construire et maintenir des pipelines de données fiables (ETL/ELT, SQL) * Garantir la qualité et la cohérence des données (contrôles, règles de gestion, traçabilité) * Développer et opérer les flux inter-applications (API REST, fichiers, intégration) * Concevoir des services data et API pour faciliter les usages métiers et les POC * Mettre en place des automatisations (scripts, workflows, RPA ou low-code) * Participer à l’industrialisation de cas d’usage data et IA * Contribuer à la structuration des modèles de données et à la gouvernance * Intervenir sur des projets SI structurants (ERP, intégration, automatisation) Les compétences techniques * SQL avancé indispensable * API REST (GraphQL apprécié) * Data engineering / intégration applicative * Scripting : Python, Node.js ou Go * Outils d’automatisation / workflows / iPaaS * Git & principes DevOps * Environnement cloud (idéalement Azure) * Sensibilité data quality & urbanisation SI
CDI

Offre d'emploi
Data Analyst Junior H/F

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel

5 724-13 920 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance

Mission freelance
SAP Finance Data Governance Expert

Signe +
Publiée le
SAP S/4HANA

1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
CDI

Offre d'emploi
Data Governance (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

38 400-44 400 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Business Analyst Data (Advanced)

Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake

12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
CDI

Offre d'emploi
Responsable Master Data (H/F) - 93

Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)

Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Freelance

Mission freelance
Data Manager Lead

STHREE SAS pour COMPUTER FUTURES
Publiée le
Business Intelligence

6 mois
Paris, France
Piloter le projet de renforcement BI & Analytics (BIGUP), incluant la rationalisation du périmètre métier, la standardisation, l’amélioration du modèle de delivery et l’opérationnalisation du modèle opératoire. Gérer la gouvernance BI & Analytics en mode BAU (run). Faire appliquer la stratégie Data en veillant à ce que les standards Data soient définis et mis en œuvre. Les standards minimum requis sont : la politique de gouvernance des données, le cadre de Data Quality et le cadre Data By Design, supportés par la documentation des données. Mettre en place et accompagner le processus Data By Design avec les Data Architects, le Data Privacy Officer et les autres parties prenantes. Soutenir les Business Data Owners et Data Stewards dans leurs activités de gestion des données, y compris la mise en œuvre des frameworks Data dans leur domaine.
Freelance
CDI

Offre d'emploi
Consultant Reporting Réglementaire Finance de Marché (H/F)

NSI France
Publiée le
Reporting

1 an
40k-50k €
400-610 €
75001, Paris, Île-de-France
📢 Fiche de poste – Consultant Reporting Réglementaire Finance de Marché (H/F) Un acteur majeur du secteur financier basé en Île-de-France recherche un consultant spécialisé en reporting réglementaire dans un environnement finance de marché. 🎯 Missions principales : • Production et contrôle des reportings réglementaires (Transaction Reporting Réglementaire – TRR) • Gestion et analyse des rejets, corrections et suivi des anomalies • Suivi de la qualité des données et respect des exigences réglementaires • Participation aux projets d’évolution réglementaire et aux chantiers de mise en conformité • Coordination avec les équipes Front Office, IT, Risques et Conformité 📚 Compétences requises : • Expérience confirmée en reporting réglementaire en finance de marché • Très bonne connaissance des réglementations EMIR, MMSR, SFTR • Bonne compréhension des produits financiers (dérivés, repos, instruments monétaires…) • Maîtrise des flux transactionnels et des problématiques de data quality • Capacité d’analyse, rigueur et autonomie 📍 Localisation : Île-de-France 📅 Démarrage : à définir 💼 Type de mission : consulting / freelance 📈 Environnement : exigeant, structuré, orienté conformité et qualité des données Candidatures et recommandations en message privé.
76 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous