Trouvez votre prochaine offre d’emploi ou de mission freelance Data governance
Votre recherche renvoie 76 résultats.
Mission freelance
Lead Full Stack Engineer (AI &Agentic UI)
Comet
Publiée le
Analyse
API
Azure
10 mois
700-800 €
Paris, France
Dans le cadre d’un programme d’innovation avancée au sein d’un Tech Accelerator, nous recherchons un Data Analyst Senior pour intervenir sur la conception et le déploiement de produits data & AI de nouvelle génération , intégrant des modèles de langage (LLM) et des interfaces conversationnelles intelligentes. Vous interviendrez au cœur d’une équipe produit agile et transverse, en lien étroit avec des ingénieurs full stack, des product managers et des designers, afin de transformer des données complexes en insights exploitables et en expériences utilisateurs intelligentes . Votre rôle consistera à structurer, analyser et exploiter des données issues de multiples sources (produits, ingrédients, usages, graphes de connaissance), à contribuer aux stratégies de context enrichment (RAG) , et à garantir la qualité, la pertinence et la performance des données utilisées par les applications AI. Vous participerez activement à la mise en valeur des données via des visualisations claires , à la définition des modèles analytiques, ainsi qu’à l’optimisation des flux de données alimentant les applications conversationnelles. La mission s’inscrit dans un environnement exigeant, orienté produit, innovation rapide et impact business direct.
Mission freelance
Architecte Data - Lyon
Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture
6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Mission freelance
Data Architect GCP
Atlas Connect
Publiée le
Apache
Apache Airflow
Apache Spark
12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Mission freelance
Lead Plateforme MLOps / LLMOps
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI
12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Mission freelance
Chef de projet - Data Management / Framework
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🚀 Mission Freelance - Business Analyst Data (H/F) - Paris - Longue mission Nous recherchons un Business Analyst Data confirmé pour Construire une approche et planning afin de se mettre en conformité vis a vis du framework Data Management Control Standard (DM CS) et End User Computing Control standard (EUC CS) Contrainte forte du projet : Connaissance et experience dans l'implementation des disciplines DAMA : Data Governance, Data Quality, Data Traceability, Risk Reporting. Connaissance experience de la Directive BCBS 239 est une atout majeur. Connaissance de la gestion des applications EUC d'un point vu Data Management. Les livrables sont Frameworks DM CS et EUC CSderivés pour la France Approche, Roadmap, status de l'implementation, Reporting local global. 🎯 Votre rôle Activités principales attendues de la mission : - Gap analysis as-is versus nouvelle version des policies DM CS et EUC CS incluant les issues ouvertes relatives à ces deux standards - Definition des policies en application au scope et au contexte local - Accompagnement des métiers (Communication / Training) - Identification des gaps et plan d'action de remediation inscrit dans une roadmap - Execution des roadmaps, suivi et reporting de la mise en conformité à ces deux policies - Execution et coordinations des cycles de tests des controls definis dans les policies (Test of Design/ Test of Effectiveness) 🛠️ Compétences requises SQL (confirmé) Data modelling Data Governance, Data Quality, Data Traceability, Risk Reporting Connaissance BCBS 239 EUC Management Anglais professionnel & français courant 📅 Modalités Démarrage : 9 mars 2026 Fin : 31 décembre 2026 Rythme : 2 jours / semaine sur site Lieu : Paris Type : Assistance technique - Freelance 👉 Si vous êtes un expert Data avec une forte orientation conformité & gouvernance, cette mission est faite pour vous !
Mission freelance
Consultant – Senior Manager RDARR / BCBS 239
Mon Consultant Indépendant
Publiée le
Gestion de projet
6 mois
700-730 €
Paris, France
Un établissement bancaire de premier plan recherche un consultant de niveau Senior Manager (15 ans d’expérience minimum) pour intervenir sur des enjeux stratégiques de gouvernance, qualité des données et gestion des référentiels, dans le contexte réglementaire de RDARR / BCBS 239. Contexte de la mission : Intervention au sein d’une équipe Data en charge du pilotage de recommandations et de l’amélioration des dispositifs liés : · aux référentiels structurants de la banque, · aux processus d’agrégation et de reporting des données, · aux dispositifs de qualité des données (Data Quality). La mission implique une interaction transverse avec l’ensemble des filières contributrices : Risques, Finance, ALM,... Responsabilités : · Pilotage de certaines recommandations relatives aux référentiels et aux exigences RDARR / BCBS 239 · Évaluation et renforcement des dispositifs de Data Governance et Data Quality · Analyse des chaînes de données (lineage, contrôles, traçabilité, ownership) · Structuration et priorisation des plans d’actions · Coordination des contributeurs métiers et IT (Risques, Finance, ALM, etc.) · Animation des comités de suivi et reporting auprès des instances de gouvernance · Challenge des dispositifs existants et accompagnement des équipes dans leur mise en conformité Profil recherché : · 15 ans d’expérience minimum en environnement bancaire · Expérience confirmée à un niveau Manager / Senior Manager · Expertise solide en Data Governance, gestion des référentiels et Data Quality · Expertise sur les problématiques Risques, Finance et ALM · Maîtrise des attentes réglementaires liées à RDARR / BCBS 239 · Forte capacité à dialoguer avec des interlocuteurs métiers et techniques de haut niveau · Leadership, autonomie et capacité à piloter des sujets transverses complexes
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Mission freelance
Architecte Entreprise
Coriom Conseil
Publiée le
Collibra
KPI
Modélisation
12 mois
550-640 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme CCDP (Commerce):
Offre d'emploi
Data Quality Analyst / Analyste Qualité des Données
AEROW
Publiée le
Microsoft Excel
Python
SAP ECC6
6 mois
40k-42k €
400 €
Liège, Belgique
La qualité des données constitue un prérequis essentiel à l’exploitation efficace de ces nouveaux outils et à la réalisation des bénéfices attendus. Dans ce contexte, le Data Quality Analyst joue un rôle central dans l’amélioration continue des données clés, dans le cadre de la gouvernance de données mise en place chez RESA. Le poste est rattaché au coordinateur de l’équipe AI & Data Governance , qui apporte le support et l’alignement stratégique nécessaires. Garantir, améliorer et pérenniser la qualité des données critiques utilisées par les solutions Smart Grid et Data & AI, afin de soutenir les enjeux métiers et stratégiques de RESA. Responsabilités Détecter de manière proactive les problèmes de qualité des données Analyser et qualifier les anomalies de données Réaliser des analyses de causes racines (Root Cause Analysis) afin d’identifier l’origine des problèmes Proposer et recommander des pistes de résolution adaptées et durables Documenter les règles de qualité des données, les résultats des contrôles et le suivi des écarts Mettre en œuvre ou contribuer aux actions correctrices en collaboration avec les équipes concernées Former et sensibiliser les producteurs de données aux bonnes pratiques de gestion de la qualité des données Contribuer à l’instauration d’une culture de la qualité de la donnée au sein de l’organisation Participer à la gouvernance des données et à l’amélioration continue des processus associés Assurer une veille technologique sur les outils et pratiques liés à la qualité des données
Mission freelance
Data Manager
Tenth Revolution Group
Publiée le
DBT
Snowflake
1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)
Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA
1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Offre d'alternance
Alternance - Data Engineer H/F/X
█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD
Saint-Denis, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant Leader SAP Master Data
CERCAR
Publiée le
Paris, France
Dans le cadre du renforcement de sa gouvernance des données, un grand groupe recherche un Master Data Leader SAP pour piloter la gestion des données de référence au sein de son environnement SAP. La mission s'inscrit dans un contexte structurant avec des enjeux forts de qualité, de cohérence et de centralisation des données. Objectif de la mission Garantir la qualité, l'intégrité et la disponibilité des données de référence utilisées par les processus métiers, en définissant et en pilotant une gouvernance data robuste et durable dans l'écosystème SAP. Missions principales Superviser la création, la modification et la validation des données de référence dans SAP Assurer la qualité des données (déduplication, correction des incohérences, fiabilisation des référentiels) Définir et mettre en place des règles de gouvernance, workflows et mécanismes de contrôle Centraliser les données dans un référentiel unique et structuré Agir comme interface entre les équipes métiers, IT et projet SAP Participer aux projets d'implémentation SAP, notamment sur les modules impactés par les données de base Encadrer et structurer l'organisation Master Data si nécessaire Analyser les impacts des évolutions de processus sur les référentiels et assurer leur alignement stratégique Compétences requises Expertise approfondie des référentiels SAP (articles, fournisseurs, clients, nomenclatures, etc.) Maîtrise des outils de gouvernance type SAP Master Data Governance (MDG) Bonne compréhension des processus Supply Chain, logistique ou Finance Solide expérience en qualité de données et en gouvernance Capacité à piloter des sujets transverses et à structurer une organisation data Excellentes compétences en communication avec des interlocuteurs métiers et techniques Modalités pratiques Type de contrat : Freelance Localisation : Paris Remote : 2 jours par semaine Démarrage : ASAP Durée : à définir TJM indicatif : selon profil Merci de transmettre votre CV ainsi que vos disponibilités et votre taux journalier.
Mission freelance
Consultant SAP module MDG
CAT-AMANIA
Publiée le
Master Data Management (MDM)
6 mois
550-700 €
La Défense, Île-de-France
Consultant Senior SAP MDG (Master Data Governance) Mission : Cadrage et mise en œuvre de la gouvernance des données de référence (Articles, Fournisseurs, Clients ou Finance). Configuration du modèle de données (Data Modeling) et du modèle de processus (Workflow, UI). Mise en place des règles de validation et de consolidation (BRFplus). Interface avec les équipes métier et la DSI pour l'alignement stratégique. Profil recherché : 5 à 8 ans d'expérience minimum sur SAP, dont au moins 2-3 projets significatifs sur le module MDG Localisation : La Défense (Présentiel/Hybride selon accord). Durée : 6 mois (Renouvelable)
Offre d'emploi
TEST LEAD DATA
TECOS
Publiée le
ISTQB
40k-50k €
Paris, France
Je recherche un Test Lead Data pour un démarrage ASAP Le Test Lead intervient transversalement sur : Mission principale : La définition et le pilotage de la stratégie de tests Data L’organisation et le suivi des campagnes (intégration, qualité des données, non-régression, automatisation) La coordination des équipes internes/externes L’amélioration continue du dispositif de tests, en lien avec les enjeux Data, Qualité et Métier. Responsabilités Encadrer les activités de tests sur le périmètre (collecte, conception, exécution). Élaborer les plans de tests, scénarios, critères d’entrée/sortie, règles de couverture Garantir la qualité et la complétude du référentiel de tests sous Xray. Identifier les risques qualité, périmètres sensibles, flux critiques et dépendances Data Superviser les tests d’intégration Data, migration, qualité, conformité Définir les KPI de pilotage et assurer le reporting régulier. Automatisation Définir la roadmap d’automatisation (API, traitements Data, tests récurrents). Piloter la mise en œuvre des scripts automatisés et l’industrialisation Assurer la coordination avec les équipes (développement, Automatisation et les métiers) Contribuer à l’amélioration continue du process de tests. Compétences techniques requises Très bonne compréhension des architectures Data et des modèles relationnels. Expérience confirmée sur des projets Data : migration, transformation, fédération de données. Bonne connaissance des problématiques de qualité des données (DQ rules, profiling, gestion des exceptions). Connaissance des outils Data du marché ( souhaitable ) : DataSmart, Snowflake, outils de Data Quality & Data Governance Lineage, Catalog, règles métiers, Data Quality dashboards Solide maîtrise de la gestion de tests sous Xray (planification, exécution, reporting). Maîtrise des pratiques de tests ISTQB (conception, exécution, suivi). Connaissance des métriques et KPI de suivi (avancement, couverture, anomalies). Outils & technologies Informatica (ETL / DQ / MDM / Data Management). (souhaitable) SQL (requêtes complexes, validation de transformations, analyse d’écarts). APIs / services (tests d’intégration, automatisation). Notions de pipelines CI/CD et outillages d’automatisation Outils de gestion de test (Jira Xray). Soft skills Capacité à animer des ateliers avec développeurs et métiers. Aisance dans les échanges avec les PO, Data Owners, équipes techniques, métiers Savoir alerter, prendre des décisions et prioriser selon les risques. Autres : Profil : Sénior Localisation : IDF Date de démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
76 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois