Le poste Offre de mission d'un Recetteur et Analyst QOD sur Paris
Partager cette offre
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris
Contexte de la mission :
Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery).
La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end)
La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data
Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD).
Objectifs/Descriptif de mission :
Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à :
1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints.
2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle).
3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid).
4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers.
Livrables attendus
Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables
Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling)
Cartographie des anomalies sources (Identification de la "Dette Data" amont)
Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint
Ingénierie des tests et implémentation QoD (Framework Hydra) :
Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés)
Intégration des règles de Qualité (QoD) dans le code ELT (Hydra)
Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint)
Recette Backend & Validation des livrables Core Team
Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira).
Requêtes SQL de validation finale (UAT Backend)
Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.)
Monitoring de la Dette Data & Exposition (Cockpit QoD):
Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client).
Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review
Compétences requises
Compétences et expériences obligatoires :
SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies.
Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles.
Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique.
Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots).
Compétences souhaitées
Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile).
Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé
Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra).
Savoir-être :
Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases).
Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont.
Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers.
Pragmatisme : Livrer de la valeur incrémentale.
Expérience : > 7 ans
Localisation : 16 Rue du Général Alain de Boissieu
A Exclure :
Ce que nous ne cherchons PAS :
PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données.
PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL).
PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Profil recherché
Compétences et expériences obligatoires :
SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies.
Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles.
Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique.
Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots).
Compétences souhaitées
Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile).
Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé
Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra).
Environnement de travail
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offre de mission d'un Recetteur et Analyst QOD sur Paris
EterniTech
