Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality

Offre d'emploi
Consultant Data Quality Solvabilité 2
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données , avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données. Votre salaire sera évalué selon votre expérience et sera complété de primes et avantages très rares dans des structures de notre taille.
Mission freelance
Chef de projet Data/Lead data scientist
Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.

Offre d'emploi
Consultant Data Quality
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données, avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données : · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données.

Offre d'emploi
Business Analyst Data
1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Mission freelance
Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j
Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j Vos responsabilités principales : Pilotage de la démarche Qualité Gérer la backlog produit et collaborer avec les équipes techniques Animer les comités de suivi projets avec les filiales et les lignes produits Assurer le suivi projet en respectant les couts et les délais Construire le MVP Data Quality Cockpit Assurer la conception et la mise en place du Data Quality Cockpit : définition des fonctionnalités, interfaces, architecture, tableaux de bords… Être le garant du déploiement des normes et des standards de qualité de donnée du Groupe. Alimenter et maintenir les indicateurs de qualité Structurer les règles de qualité, les seuils, alertes et KPIs à intégrer Alimenter en continu les sources de données du cockpit Veiller à la cohérence, à la fiabilité et à la lisibilité des informations affichées Déployer le cockpit dans les filiales Organiser et accompagner le déploiement progressif du cockpit dans les entités pilotes pour commencer et ensuite Définir les périmètres de données à suivre par filiale Assurer la formation et l’adoption par les utilisateurs métiers Fédérer autour de la culture Data Quality Sensibiliser les équipes à l’importance des données fiables Accompagner les métiers dans la compréhension des indicateurs qualité Participer à la structuration de la gouvernance des données à l’échelle du groupe Profil recherché Formation & Expérience Bac +5 (école d’ingénieur, informatique, data, SI…) Expérience confirmée (5 ans min.) dans la data, idéalement dans des environnements multi-entités ou internationaux Solide expérience en gestion de projet data, gouvernance ou qualité des données Compétences clés Maîtrise de SQL, des systèmes de gestion de données (Data Lake, référentiels…) Connaissance des outils de data visualisation Bonne compréhension des enjeux de qualité, sécurité et conformité des données Capacité à structurer des règles, seuils, KPIs et dictionnaires 450 e par j

Offre d'emploi
Azure Data Factory Expert
1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Mission freelance
Architecte DATA H/F
Tu veux contribuer à la mise en place d’une gouvernance des données efficace et à forte valeur ajoutée ? Rejoins les équipes de notre client. Ta mission En tant qu’Architecte Data, tu auras un rôle clé dans la conception et la mise en œuvre de la gouvernance des données de nos solutions applicatives. Tes principales responsabilités Analyser l’existant et proposer une gouvernance data adaptée aux besoins de l’organisation. Définir l’architecture data et faire évoluer les référentiels (dictionnaires, règles de gestion…). Collaborer avec les équipes métiers, techniques et sécurité pour aligner les pratiques data. Participer à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data

Offre d'emploi
Consultant INFORMATICA IDMC & GCP – Data Integration (H/F)
Dans le cadre du développement de nos activités Data & Cloud, nous recherchons un Consultant expérimenté sur INFORMATICA IDMC et Google Cloud Platform (GCP). Au sein d’une équipe projet pluridisciplinaire, vous interviendrez sur des missions de conception, d’intégration et de déploiement de flux de données complexes, en exploitant toute la puissance de la plateforme IDMC (Informatica Intelligent Data Management Cloud) et les services natifs GCP. Principales missions : Analyse des besoins métiers et cadrage technique des flux de données à industrialiser Conception, développement et optimisation de pipelines de données sur IDMC (Data Integration, Data Quality, Data Catalog…) Intégration et orchestration de données dans GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub…) Participation aux phases de migration et de modernisation des plateformes Data existantes vers le Cloud Rédaction de la documentation technique et bonnes pratiques Support technique, expertise et accompagnement des équipes Data internes Veille technologique et proposition de solutions innovantes autour de la Data et du Cloud Compétences attendues Expertise sur INFORMATICA IDMC (Data Integration, Data Quality, Data Catalog…) Maitrise des environnements GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub…) Bonnes pratiques de développement et d’intégration de données Rédaction de documentation technique, support et formation (Bonus) Expérience migration OnPrem vers Cloud, ou connaissance d’autres clouds (Azure, AWS…)

Mission freelance
Chef de projet Data
🚀 Freelance - Chef de Projet Data 🚀 Vous souhaitez piloter un programme Data stratégique, transversal et ambitieux ? 🌟 Contexte du projet Depuis 2 ans, le client mène le programme Data Foundation : Refonte complète de l’architecture Data Création d’un Data Lake sur Azure Migration du Data Warehouse d’Oracle vers Microsoft Fabric Mise en place et centralisation du reporting Power BI Déploiement d’outils de Data Gouvernance (IBM MDM, Data Quality, Data Catalogue) Gestion de 24 ERP au niveau groupe 📌 Vos missions Pilotage de projets Data (BUILD & amélioration continue) Gestion du portefeuille projets et respect des jalons Interface entre équipes métier, IT, marketing et communication Analyse d’impacts et traduction des besoins en usages business Contribution aux projets en cours : intégration PIM, DAM, données de stock 🛠 Stack & environnement Microsoft Dynamics CRM, Azure Data Lake, Power BI Équipe : 6 personnes (chefs de projet, business analysts, architecte, data stewards) Partenariats avec Micropole, IBM, Cleverage, etc. 📍 Modalités Démarrage : fin septembre 2025 Contrat : 6 mois Localisation : Tarare (2 jours télétravail/semaine après période d’essai) Déplacements ponctuels (Paris, Grenoble) 💡 Profil recherché Un chef de projet transversal, capable de comprendre les enjeux business et techniques, facilitateur, orienté résultats et collaboration. 📩 Intéressé(e) ? Contactez-moi en message privé pour échanger.
Mission freelance
Product Owner Data
Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

Mission freelance
Chef de projet
Bonjour à tous, Un client recherche un profil chefferie de projet Data (fonctionnelle : 80% / Technique 20%), qui piloterait son programme de transformation, avec l'équipe projet : Le Programme « Data Foundation » : Refonte de l’architecture Création d’un Data Lake Mise en place de reporting Optimisation de la circulation des flux DataHub : décision de le conserver dans l’architecture. Migration Data Warehouse : passage d’Oracle vers Fabric. Power BI : centralisation des données groupe. Enjeu de Process de Data Gouvernance : Déploiement Informatica : MDM, Data Quality, Data Catalogue (documentation des données), tracking des données / mise en place d’un rôle de Data Gouvernernance . Day-to-day du chef de projet Data recherché : Pilotage de projet et production de livrables Gestion de portefeuille projets ( Portfolio Manager ) Respect des jalons Chefferie de projet et analyse métier (orientation avec les équipes métier / marketing et communication) Aspects logistiques Start Date : fin septembre => Profil recherché : transversal, couvrant l’ensemble du domaine DATA. Durée du projet : 6 à 8 mois (travail en lots). Localisation : Proche de Lyon Télétravail : 2 jours / semaine après 4 mois de période d’essai. présence full time sur site proche de Lyon les premiers mois, puis 2 jours de télétravail Important : il y a des déplacements entre les sites et les différentes filiales (Paris, Grenoble, selon l'avancée des projets) En bref, de belles perspectives projets sont à prévoir dès octobre et sur toute l'année 2026 ! N'hésitez pas à proposer votre CV

Mission freelance
Expert Qualité des Données CRM
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.

Offre d'emploi
PRODUCT OWNER DATA
Contexte du poste Dans le cadre du développement de la plateforme data et de la valorisation des usages BI, nous recherchons un Product Owner confirmé (7-8 ans d’expérience) ayant une expertise approfondie sur Power BI et une bonne compréhension des environnements Data (Databricks, pipelines, gouvernance de la donnée). Le PO sera en charge de piloter et coordonner les activités d’une petite équipe composée d’un développeur Power BI et d’un développeur Databricks, tout en assurant la relation avec les métiers et la priorisation du backlog. Missions principales Pilotage & Coordination Définir et maintenir la roadmap produit en lien avec les besoins métiers. Animer les cérémonies Agile (daily, sprint planning, revue, rétrospective). Prioriser le backlog et arbitrer les demandes métiers. Assurer le suivi d’avancement, la qualité des livrables et le respect des délais. Accompagnement & Leadership Encadrer deux développeurs (Power BI & Databricks) : apporter du support technique, aider à lever les blocages. Garantir la cohérence entre les développements Databricks (traitement de la donnée) et Power BI (restitution). Sensibiliser les parties prenantes à la bonne utilisation de la donnée et des outils. Expertise Power BI Contribuer à la conception et à l’optimisation de tableaux de bord. Apporter une expertise sur la modélisation des données, la DAX et la performance des rapports. Définir les bonnes pratiques et standards d’usage de Power BI. Relation Métiers & Gouvernance Recueillir et challenger les besoins des utilisateurs. Traduire les besoins métiers en user stories claires et actionnables. Garantir la qualité, la fiabilité et la pertinence des indicateurs restitués. Profil recherché Expérience : 7-8 ans minimum dans des projets Data/BI dont une solide expérience sur Power BI. Compétences techniques : Excellente maîtrise de Power BI (DAX, Power Query, modélisation, optimisation). Bonne compréhension d’un environnement Databricks (Spark, Delta Lake, pipelines de données). Connaissance des environnements Cloud (Azure de préférence). Compétences fonctionnelles : Gestion de backlog, priorisation et animation de cérémonies Agile. Capacité à recueillir, formaliser et challenger les besoins métiers. Sensibilité aux enjeux de data quality et gouvernance de la donnée. Soft skills : Leadership et capacité à fédérer une équipe. Excellentes qualités de communication et de pédagogie. Rigueur, autonomie et sens du résultat. Langues : Français courant, anglais professionnel souhaité

Mission freelance
Responsable données & intelligence artificielle -(h/f)
Résumé Le Responsable Données & Intelligence Artificielle pilote la stratégie de gouvernance, de valorisation et de sécurisation des données au sein de la DSI, en alignant les équipes Data et IA avec les objectifs métiers pour optimiser la performance des processus de l’entreprise. Responsabilités : Mise en œuvre du Schéma Directeur DATA & IA. Coordination des projets de valorisation de la donnée et déploiement des cas d’usage IA. Reporting régulier et communication auprès des parties prenantes internes. Pilotage des budgets alloués aux projets Data/IA. Définition et évolution de la stratégie de gouvernance des données. Mise en place des politiques, standards et processus de gestion des données. Supervision du data catalog et du dictionnaire de données. Identification et piloting des cas d’usage IA avec les directions métiers. Intégration des solutions IA dans les processus métier. Déploiement des processus de gestion de la qualité des données (DQM). Conformité réglementaire, notamment RGPD. Collaboration pour la sécurisation des données et modèles IA avec le RSSI. Encadrement d’une équipe pluridisciplinaire. Animation des communautés Data. Suivi des indicateurs de performance liés à la gouvernance des données et aux projets IA. Assurer une veille technologique sur les outils IA et pratiques de data governance. Promouvoir les innovations pour améliorer la performance des solutions IA. Compétences clés : Maîtrise des outils de Data Management (Data Catalogs, Data Quality). Connaissances solides des solutions Cloud (Azure, AWS, GCP). Expertise en IA (ML, NLP) et des frameworks associés. Expérience dans la gestion de projets complexes en mode agile. Bac +5 en ingénierie ou spécialisation data/IA. 8 à 10 ans d’expérience en gouvernance des données et IA. Bon à avoir : Expérience dans un environnement DSI structuré. Expérience en cabinet de conseil. Capacité à vulgariser des concepts techniques. Esprit analytique et rigueur. Autres Détails : Localisation : Ile de France 92, déplacements nationaux à prévoir. Encadrement : 8 à 12 collaborateurs (internes et prestataires). Rattachement hiérarchique : Responsable du Socle Technique IT. 2 jours de TT après la période d’intégration

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Mission freelance
Chef de projets DATA : analyse opérationnelle et gouvernance - MDM
Le SI de cette entreprise est toujours en cours de structuration pour accompagner la croissance de l’activité. Il est caractérisé par une certaine hétérogénéité des applications (nombreux progiciels fournis par divers éditeurs-intégrateurs) et par la gestion de flux de données entrants de volume assez important (1 à 2 millions de lignes de données reçues chaque mois d’un organisme extérieur). Un des progiciels clés vers lequel convergent de nombreuses données est un CRM (qui gère les données des salariés affiliés). Dans ce contexte, nous recherchons un/une « Chef de projet DATA Analyst, Gouvernance et MDM » qui interviendra sur des aspects opérationnels et stratégiques, sur les 3 axes complémentaires : Axe 1 : DATA Analyse opérationnelle et AMOA : Contribuer à fiabiliser les flux de données entrants : Proposer des méthodes et algorithmes pour contribuer à la fiabilisation des données qui sont reçues chaque mois (data quality, lineage, …) Pour cette mission, être capable de faire des recherches dans les données avec outils à définir (Excel, voire Python, SQL,…) pour comprendre et détecter les anomalies Pouvoir échanger utilement avec les développeurs (MOE) qui sont chargés de récupérer ces flux de données et de les dispatcher dans la base de données. Etre également capable de rédiger des spécifications fonctionnelles pour que ces développeurs améliorent les scripts de mise en qualité des données et de tester leurs réalisations (approche AMOA) Axe 2 : Organisation du Data Management dans l’ensemble du SI : Développer une réflexion structurée sur l’impact et le suivi des données reçues par les flux externes ou autres canaux (saisies, etc.) dans la suite des processus de travail impactant les domaines métiers et applications du SI (CRM, éditique, comptes extranet, qualification des salariés, etc.) Mettre en place en place une organisation pour la gouvernance-management des données pouvant aller éventuellement jusqu’à la l’étude et la proposition d’outils MDM du marché Axe 3 : Pilotage de projet et coordination transverse : Organiser, planifier, reporter et suivre l’ensemble des actions relatives aux axes 1 et 2 Transfert de compétences et conseil auprès d’autres chefs de projets internes pour les sensibiliser à l’approche « data » et faire en sorte d’installer des bonnes pratiques pérennes dans la gestion des données Autres points : Lieu mission : Paris 15ème (Métro Pasteur) Date démarrage : ASAP Durée : 6 mois renouvelable Modalité : Temps plein, avec peu de télétravail (1 jour par semaine idéalement)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trajet domicile travail en voiture de fonction c'est usage perso ??
- Masquer infos entreprise Pappers, Google etc
- Reconversion professionnelle cyber
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Reconversion professionnelle dans la cybersécurité
- Mes dashboards finissent au placard ? Besoin de vos retours