L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 252 résultats.
Mission freelance
Tech Lead Data (H/F)
Octopus Group
Publiée le
Google Cloud Platform (GCP)
12 ans
500-610 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme data cloud et de la modernisation de l’écosystème analytique, nous recherchons un(e) Tech Lead Data capable de piloter les choix techniques, encadrer les développements et accompagner les équipes sur des architectures data cloud-native à grande échelle. Missions principales Concevoir et faire évoluer l’architecture data sur GCP Encadrer techniquement les équipes Data Engineering Définir les bonnes pratiques de développement et d’industrialisation Participer aux choix d’architecture et aux décisions techniques stratégiques Développer et maintenir des pipelines de données robustes et scalables Mettre en place les standards CI/CD et Infrastructure as Code Superviser les workflows d’orchestration et les traitements batch/streaming Garantir la qualité, la sécurité et la gouvernance des données Collaborer avec les équipes métier, analytics, BI et cloud platform Accompagner les équipes sur les sujets de performance, monitoring et optimisation des coûts cloud Environnement technique GCP (BigQuery, Cloud Run, Pub/Sub, Cloud Build, Artifact Registry) Terraform Python SQL Airflow Git / CI/CD Docker Architecture cloud-native APIs & microservices Data pipelines / ELT Compétences appréciées Streaming temps réel Data Governance Observabilité & monitoring FinOps / optimisation cloud Sécurité des données Méthodologies Agile / Scrum
Mission freelance
Business Analyst Data / MLOps – Plateformes Data Science (H/F)
CELAD
Publiée le
1 an
600-680 €
Paris, France
Contexte de la mission Vous intervenez au sein d’une Squad dédiée à la mise en place et à l’exploitation des outils Data Science et MLOps utilisés par les équipes Data (Data Scientists, Data Engineers) d’un grand groupe bancaire (réseau de 39 entités). Le périmètre couvre : Une plateforme Big Data basée sur Cloudera Des outils open source Data Science : JupyterLab, TensorFlow, librairies Python Un portail de services facilitant l’accès aux ressources Data Des services associés (accès aux données SI, environnements de travail, composants MLOps) Vous êtes un point central entre les utilisateurs métiers Data et les équipes techniques. Missions principales 1. Analyse fonctionnelle & cadrage Recueillir et analyser les besoins des utilisateurs (Data Scientists, Data Engineers) Animer des ateliers de cadrage et de conception Traduire les besoins en spécifications fonctionnelles et user stories Maintenir une documentation claire et exploitable 2. Pilotage de projets Data / MLOps Piloter les projets liés aux plateformes Data et outils IA Coordonner les équipes techniques et les parties prenantes Assurer le suivi des livraisons et des dépendances Contribuer à la roadmap produit avec le Product Owner 3. Gestion du backlog & Agile Rédiger et prioriser les user stories dans Jira Gérer le backlog produit et suivre son avancement Participer aux rituels Agile (daily, sprint planning, reviews) 4. Tests & qualité Concevoir et exécuter les campagnes de tests fonctionnels Rédiger les plans de tests et scénarios de recette (XRAY) Identifier, analyser et suivre les anomalies Garantir la qualité des livraisons 5. Gestion des risques & conformité Analyser les risques métiers liés aux solutions Data Travailler avec les équipes SSI, conformité et juridique Intégrer les contraintes réglementaires : RGPD, gouvernance des données Assurer la conformité des usages Data (sécurité, confidentialité, éthique) 6. Accompagnement des utilisateurs Produire la documentation fonctionnelle et supports de formation Assurer l’assistance fonctionnelle aux utilisateurs (Caisses Régionales) Accompagner les migrations et la conduite du changement 7. Amélioration continue Collecter les feedbacks utilisateurs Analyser les usages et proposer des optimisations Contribuer à l’évolution des plateformes et services Environnement technique Big Data : Cloudera, Hadoop ecosystem Data Science : Python, TensorFlow, JupyterLab Requêtage : SQL / HQL Outils : Jira, XRAY Méthodologie : Agile Contexte : SI bancaire, plateformes Data & MLOps Accès aux données Accès à des données à caractère personnel via plateforme ZEUS (en production) Respect strict des règles de sécurité, confidentialité et conformité
Mission freelance
Consultant senior data governance
Mon Consultant Indépendant
Publiée le
Data quality
3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Offre d'emploi
Responsable DATA/BI - Martinique
INFOBAM
Publiée le
Data analysis
Data management
Gouvernance
Le Lamentin, Martinique
En tant que Responsable du Domaine DATA & BI, vous êtes le chef d'orchestre de la stratégie déployée au sein des filiales de GBH. Votre mission consiste à conduire des projets, chantiers de conception et de mise en œuvre en apportant votre expertise sur les outils décisionnels. Au quotidien, vous managez les équipes du domaine, en charge du développement, de la maintenance et de l’évolution des systèmes décisionnels pour les sociétés de GBH. Vos missions principales seront les suivantes : - Vous managez, animez et assurez le suivi opérationnel (coaching, formation, accompagnement métier, définition des objectifs) d’une équipe de 10 consultants (une équipe en cours de croissance) - Vous gérez et pilotez les relations avec les partenaires tiers de la DSI INFOBAM (ESN, consultants indépendants) ; - Vous êtes force de propositions pour l’implémentation d’une roadmap DATA/BI, en lien avec les besoins exprimés par les métiers ; - Vous animez périodiquement des réunions avec les métiers dans le but d’analyser et prioriser les demandes d’évolutions ; - Gestionnaire du « Build », vous assurez la bonne exécution des projets dans le respect des délais, du contenu, de la qualité et des objectifs budgétaires initialement convenus ; - Gestionnaire du « Run » de la plate-forme DATA/BI et de son maintien en conditions opérationnelles, incluant également la maintenance évolutive/corrective ; - Vous assurez la gouvernance des données, notamment au niveau de la définition des indicateurs opérationnels, garant de la maintenance, de l’évolution et de la pertinence des rapports ou des modèles utilisés ; - Vous pilotez l’ensemble de l’activité au travers de plan d’actions (tableaux de bord d’activité, indicateurs de performance) ; - Vous assurez une veille technologique afin de détecter les nouvelles possibilités techniques et fonctionnelles offertes par le marché.
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Mission freelance
Product Manager Data Mesh
SURICATE IT
Publiée le
Data Mesh
Product management
3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Architecte SI / Architecte d'entreprise : delivery Data & IA et exploitabilité
INSYCO
Publiée le
API
Architecture
Backlog management
18 mois
600-750 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Architecte SI / Architecte d'entreprise senior spécialisé delivery Data & IA et exploitabilité Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ARC/5304 dans l'objet de votre message Dans le cadre de programmes stratégiques, notre client recherche un Architecte SI / Architecte d'entreprise senior pour accompagner sa direction IT transverse. Les fondations techniques étant déjà en place, l'enjeu n'est plus de concevoir mais de : Structurer des processus opérationnels clairs Accompagner leur mise en oeuvre réelle sur le terrain Garantir des résultats concrets et durables La prestation consiste à définir, structurer et déployer les processus permettant de sécuriser les phases de delivery des sujets Data & IA et la réussite des mises en exploitation (24/7) des projets stratégiques, tout en accompagnant opérationnellement les équipes pour garantir leur adoption et leur efficacité. Vision & architecture Garantir la cohérence globale entre stratégie métier, architectures SI, plateformes et solutions Data et IA, Clouds, et contraintes d'exploitation Traduire les besoins métiers en solutions structurées Piloter les trajectoires SI (cloud, data, API, microservices) Exploitabilité & mise en service des projets stratégiques Garantir des mises en production fiables, maîtrisées et industrialisées. Processus à structurer (référentiel ITIL) Processus d'enrichissement de la CMDB (outil de gestion des actifs IT) Audit et optimisation des processus : Release Management, Change Management, Incident & Problem Management Audit et optimisation des critères de Go Live, des exigences d'exploitabilité dès la conception (Shift Left), des dispositifs de supervision, monitoring et gestion des alertes Structuration des environnements (DEV / PREPROD / PROD) Documentation et organisation du RUN Appui direct aux équipes projets sur les phases de mise en production Sécurisation des Go Live Coordination BUILD / RUN Mise en place des rituels d'exploitation Accompagnement des équipes RUN Approche orientée fiabilité, fluidité et industrialisation Data / IA - Delivery Définition d'un processus end-to-end Data / IA pour réussir le delivery des plateformes et des solutions techniques Suivi des : Backlog Data / IA, gouvernance des usages, critères de priorisation (valeur, ROI, faisabilité), standards (qualité des données, cycle de vie des modèles, monitoring) Mise en place des rituels de pilotage Appui à l'industrialisation des premiers use cases Approche pragmatique, orientée delivery et adoption rapide
Offre d'emploi
Data engineer
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation
6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
Enterprise Architect – Data Mesh (H/F)
Craftman data
Publiée le
API Platform
Data Mesh
1 an
40k-45k €
530-650 €
Toulouse, Occitanie
Dans le cadre de sa transformation data à grande échelle, DX souhaite renforcer son architecture autour d’une approche Data Mesh . L’objectif est de structurer une organisation data distribuée, orientée domaine, avec une forte gouvernance et une industrialisation des échanges de données. Définir et piloter l’architecture Data Mesh à l’échelle de l’organisation Concevoir et structurer le Data Service Layer Produire et formaliser les dossiers d’architecture (HLD / LLD) Accompagner la mise en place des data products par domaine Définir les standards d’exposition des données (API, streaming, etc.) Travailler sur les sujets de gouvernance, sécurité et qualité des données Collaborer avec les équipes Data, IT et métiers Contribuer aux choix technologiques et aux bonnes pratiques
Offre d'emploi
Data Analyst - DATAIKU F/H
ASTRELYA
Publiée le
Dataiku
Python
SQL
Île-de-France, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analyst spécialisé DATAIKU, vous rejoignez la Direction Data Office & Reporting & Analytics de notre client et intervenez au cœur de la valorisation de la donnée marketing dans un contexte international. Vous jouerez un rôle clé dans la transformation des données marketing en analyses fiables, en reportings automatisés et en insights actionnables pour les équipes locales et globales. Concrètement, vous allez : · Accompagner les équipes marketing dans l’analyse de leurs besoins et la définition des règles de gestion. · Construire des flows DATAIKU robustes, maintenables et documentés, conformes aux standards internes. · Automatiser et scénariser les pipelines de transformation. · Réaliser des analyses ad hoc pour éclairer les décisions marketing (performance campagnes, parcours digital, CLV, CPL…). · Concevoir et automatiser des tableaux de bord sous Tableau. · Mettre en place et maintenir le data lineage et le dictionnaire de données. · Garantir la qualité, la cohérence et la gouvernance des données exploitées. · Participer au recettage, à la correction de bugs et à la mise en production. · Assurer la maintenance du run et la fiabilisation des KPIs. · Collaborer quotidiennement en anglais avec les équipes internationales. · Être l’interlocuteur privilégié du Marketing auprès de l’IT. Votre futur environnement technique : · DATAIKU – flows, scénarisation, automatisation · SQL avancé – requêtes complexes, optimisation · Python (bases solides) – scripts, analyses, automatisations · Tableau – dashboards, visualisation, reporting Écosystème data marketing : Salesforce, Medallia, sites web, espace client, CLS…
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Mission freelance
Data Steward H/F
Insitoo Freelances
Publiée le
JIRA
Microsoft Excel
2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Mission freelance
Business Data Analyst MDM - Customer Domain
Zenith Rh
Publiée le
6 mois
Nord, France
Nous recherchons pour notre client, un(e) Consultant Senior Business Data Analyst MDM, pour une mission en freelance au sein d'un groupe international leader dans son domaine. Dans le cadre du lancement d'un programme stratégique de Master Data Management (MDM) portant sur le domaine "Client", notre client souhaite structurer et documenter ses actifs de données avant la phase de déploiement. Rattaché(e) directement au Customer Data Owner et au Group Customer Data Steward, votre rôle sera d'apporter un soutien opérationnel et analytique pour transformer les besoins métiers en modèles de données exploitables. Les enjeux sont majeurs : définir un modèle de données cible harmonisé, établir des règles de gouvernance robustes et garantir la qualité des données à l'échelle internationale. 🚀 Vos principales responsabilités incluent : 🔹 La définition et la documentation du modèle de données (objets métiers, attributs clés, définitions). 🔹 L'identification des Critical Data Elements (CDE) et des attributs MVP pour le futur outil MDM. 🔹 La préparation et l'animation d'ateliers avec les parties prenantes métiers pour recueillir les besoins et spécificités locales. 🔹 La formalisation des règles de cycle de vie des données (création, validation, enrichissement). 🔹 La contribution aux volets métiers de l'appel d'offres (RFP) en cours.
Offre d'emploi
Data analyst H/F
Proxiad
Publiée le
Data analysis
Python
SQL
47k-65k €
Île-de-France, France
🎯 Objectifs principaux Recueillir et formaliser les besoins métiers liés aux données de référence Analyser les données existantes et proposer des modèles de données adaptés et réutilisables Contribuer à la création et à l’évolution des datasets stratégiques Garantir la qualité, la cohérence et la gouvernance des données Faciliter l’exposition et la consommation des données (API, Data Platform) Participer aux programmes de transformation et de migration 🛠️ Responsabilités clés Rédaction de user stories et critères d’acceptation Analyse fonctionnelle et data (y compris cas complexes) Modélisation des données (référentiels / MDM) Contribution aux analyses ad hoc Support aux équipes techniques (ingénieurs data) Participation à la gouvernance des données (qualité, métadonnées, catalogage) Rédaction de documentation et accompagnement à la mise en production À distance – maximum 3 jours par semaine Le consultant travaillera sur l'ordinateur portable et le système du client.
Mission freelance
Profil RDARR, data quality, data lineage, data governance
Mon Consultant Indépendant
Publiée le
Data management
6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
252 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois