Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris

Mission freelance
Consultant AMOA ERP sénior
Bonjour, Nous recherchons pour notre client grand compte un Consultant AMOA ERP sénior (Connaissance Workday et processus Finance/RH en contexte international) Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/AMO/4871 dans l’objet de votre message. Dans le cadre d’une initiative de transformation ERP, le client souhaite cadrer puis déployer une solution cible (Workday envisagé). La mission comprend trois grands volets : État des lieux (T0+1,5 mois) : Réaliser un diagnostic complet suite aux opérations de rachats de structures en Europe. Identifier les spécificités (process, outils, offres) de chaque filiale et pays. S’appuyer sur un premier diagnostic déjà réalisé par un cabinet. Livrable attendu : diagnostic consolidé. Rationalisation & stratégie (fin 2025) : Préparer l’alignement avec les outils du Groupe (Workday, Salesforce et un outil interne d’imputation). Définir une stratégie et un plan d’actions chiffré. Garantir que les spécificités locales des pays restent bien couvertes. Livrable attendu : stratégie et plan d’actions. Accompagnement du changement & migration (S1 2026) : Conduire le changement auprès des directions Finance et RH. Accompagner la migration progressive vers les nouveaux outils. Travailler en coordination avec les équipes internes et les ressources mises à disposition par l’acquéreur. Le rattachement se fera directement auprès de la Direction Administrative et Financière, avec reporting au comité de direction. Présence attendue sur site à Paris : 3 jours par semaine. Démarrage ASAP, mission longue (6 mois renouvelables).

Offre d'emploi
Consultant Data Quality Solvabilité 2
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données , avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données. Votre salaire sera évalué selon votre expérience et sera complété de primes et avantages très rares dans des structures de notre taille.
Mission freelance
Chef de projet Data/Lead data scientist
Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.

Offre d'emploi
Consultant Data Quality
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données, avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données : · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données.

Offre d'emploi
Business Analyst Data
1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Azure Data Factory Expert
1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.
Mission freelance
Product Owner Data
Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

Mission freelance
Expert Qualité des Données CRM
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.

Offre d'emploi
PRODUCT OWNER DATA
Contexte du poste Dans le cadre du développement de la plateforme data et de la valorisation des usages BI, nous recherchons un Product Owner confirmé (7-8 ans d’expérience) ayant une expertise approfondie sur Power BI et une bonne compréhension des environnements Data (Databricks, pipelines, gouvernance de la donnée). Le PO sera en charge de piloter et coordonner les activités d’une petite équipe composée d’un développeur Power BI et d’un développeur Databricks, tout en assurant la relation avec les métiers et la priorisation du backlog. Missions principales Pilotage & Coordination Définir et maintenir la roadmap produit en lien avec les besoins métiers. Animer les cérémonies Agile (daily, sprint planning, revue, rétrospective). Prioriser le backlog et arbitrer les demandes métiers. Assurer le suivi d’avancement, la qualité des livrables et le respect des délais. Accompagnement & Leadership Encadrer deux développeurs (Power BI & Databricks) : apporter du support technique, aider à lever les blocages. Garantir la cohérence entre les développements Databricks (traitement de la donnée) et Power BI (restitution). Sensibiliser les parties prenantes à la bonne utilisation de la donnée et des outils. Expertise Power BI Contribuer à la conception et à l’optimisation de tableaux de bord. Apporter une expertise sur la modélisation des données, la DAX et la performance des rapports. Définir les bonnes pratiques et standards d’usage de Power BI. Relation Métiers & Gouvernance Recueillir et challenger les besoins des utilisateurs. Traduire les besoins métiers en user stories claires et actionnables. Garantir la qualité, la fiabilité et la pertinence des indicateurs restitués. Profil recherché Expérience : 7-8 ans minimum dans des projets Data/BI dont une solide expérience sur Power BI. Compétences techniques : Excellente maîtrise de Power BI (DAX, Power Query, modélisation, optimisation). Bonne compréhension d’un environnement Databricks (Spark, Delta Lake, pipelines de données). Connaissance des environnements Cloud (Azure de préférence). Compétences fonctionnelles : Gestion de backlog, priorisation et animation de cérémonies Agile. Capacité à recueillir, formaliser et challenger les besoins métiers. Sensibilité aux enjeux de data quality et gouvernance de la donnée. Soft skills : Leadership et capacité à fédérer une équipe. Excellentes qualités de communication et de pédagogie. Rigueur, autonomie et sens du résultat. Langues : Français courant, anglais professionnel souhaité

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Mission freelance
CP Data Management Collibra
En quelques mots Cherry Pick est à la recherche d'un "Chef de projet Data Management Collibra" pour un client dans le secteur de l'assurance Description 🎯 Contexte de la mission Dans le cadre de l’initiative NADIA (Nouvelle Ambition Data & IA), l’objectif est d’accélérer la mise en œuvre de la documentation dans l’outil Collibra pour renforcer la gouvernance des données. La mission consistera à travailler en étroite collaboration avec les Data Managers Délégués (DMD), les Data Custodians et les Data Stewards afin de prioriser, planifier et charger la documentation des données critiques du SI. 🧠 Rôle et responsabilités Accompagnement à la prise en main de Collibra : Former et accompagner les rôles data (DMD, Custodians, Stewards) pour les rendre autonomes sur Collibra. Conseiller sur les bonnes pratiques de gouvernance et de documentation. Initialisation & chargement de la documentation dans Collibra : Prioriser les sujets de documentation remontés par les DMD. Charger les fichiers validés (existants ou créés) dans Collibra avec une vision complète : métier, logique et physique. Documenter les éléments clés des initiatives NADIA : Data Quality (Golden Source des données clés) Documentation des DataLabs (sources et Data Produits associés) Processus Data Majeurs (sources et Data Produits concernés). Pilotage et suivi : Mettre en place une planification claire pour éviter l’effet "tunnel". Communiquer régulièrement l’avancement aux parties prenantes. Garantir l’appropriation et la maintenance de la documentation par les rôles data.

Mission freelance
Senior Data Engineer (Finance)
Contexte Au sein de la DSI, la Direction Data accompagne les équipes opérationnelles grâce à des outils, insights et KPI. Elle intervient dans plusieurs domaines (finance, ventes, produit, relation client, logistique, etc.) avec une logique d’amélioration continue. Missions principales Développer des pipelines d’ingestion et de transformation de données sur Snowflake / DBT Cloud Concevoir et proposer des modèles de données pour les différentes couches de la plateforme Data Améliorer les outils et méthodes de développement sur Snowflake Organiser la collecte des données issues de multiples systèmes (digital, POS, OMS, 3PL, WMS, etc.) sur tous les territoires où Lacoste fabrique ou distribue ses produits Collaborer avec l’équipe Master Data sur la Data Quality Travailler avec les Product Owners et les DataViz Engineers pour produire les jeux de données attendus dans le respect des priorités, coûts et délais Participer activement à l’amélioration continue Garantir le bon fonctionnement quotidien des pipelines développés Environnement technique

Mission freelance
Chef de projet Data Gouvernance
Je suis à la recherche pour un de nos clients d'un Chef de projet Data Gouvernance. Le département DATA mène un projet de mise en œuvre de la stratégie de gouvernance des données de l’entreprise en élaborant et en appliquant des politiques relatives à la gestion des données selon la procédure Corporate. La mission concerne les sujets de qualité et de conformité des données. Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département DATA nécessite l’expertise d’un Chef de projet Data Gouvernance pour assurer la coordination entre les différentes équipes informatiques et métiers pour garantir que les données sont utilisées correctement et efficacement dans tous les secteurs de l’entreprise. La prestation Chefferie de projet Data Gouvernance sera en charge de la mise à disposition et du maintien du Data Quality Dashboard, de la définition et de la coordination des KPI Data et des plans d’action de remédiation, en collaboration avec l’équipe Data gouvernance du département DATA, et avec les responsables informatiques / métiers des applications, et sous la supervision du responsable du département DATA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- código de descuento Tҽɱυ [ACW784957] descuento 30% para nuevos usuarios en 2025
- 30% Tҽɱυ Gutscheincode ["^"ACW785957"^"] & 10% Rabatt - September2025
- Code promo Tҽɱυ ^^[ACW784957] 30% de remise en Septembre 2025
- Reconversion professionnelle cyber
- Déclaration de Malt et rectification abusive de l'URSSAF