Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client (banque privée) basé à Paris 1er un Change Manager H/F dans le cadre d'un CDI. Rattaché au DSI, les missions principales du Change Manager H/F seront : A. Stratégie et Cadre de Gestion des Changements : * Définir et maintenir la politique de gestion des changements : typologie, criticité, règles de séparation des tâches, exigences de preuve, niveaux d'autorisation. * Définir les critères "risk-based" : impacts sur la Confidentialité, l'Intégrité, la Disponibilité, les services et processus Métiers CIF, dépendances, exigences de tests, plan de retour arrière, fenêtre de déploiement, besoins d'astreinte. * Établir les règles d'éligibilité pour les changements standard (pré-approuvés), les contrôles associés et les mécanismes d'automatisation. B. Gouvernance et Arbitrage (CAB) : * Organiser et animer les CAB (Change Advisory Board) : ordre du jour, qualité des dossiers, décisions, priorisation des changements, arbitrages, gestion des conflits de calendrier. * Encadrer la gestion des changements urgents : critères stricts, justification, contrôle a posteriori, actions de remédiation, réduction de la récurrence. * Assurer l'alignement avec le RSSI, le service des risques et la conformité pour les changements à haut risque (sécurité, données, services critiques). C. Architecture de Solution, Sous Gouvernance d'Architecture d'Entreprise : * Concevoir l'architecture de solution pour les processus et outils ITSM associés à la gestion des changements, en conformité avec les standards d'urbanisation définis par l'Architecte d'Entreprise. * Produire les dossiers d'architecture nécessaires (HLD, LLD), cartographies des impacts, et soumettre ces dossiers aux revues d'architecture. * Définir le modèle de données et les référentiels nécessaires à la gestion des changements (services, CIF, dépendances), ainsi que les règles de qualité des données. * Concevoir les intégrations avec l'écosystème IT (annuaire, supervision, CI/CD, vulnérabilités, CMDB, ticketing, knowledge base). D. Implémentation et Livraison des Solutions au RUN : * Paramétrer et déployer des solutions ITSM (ex. ServiceNow, Jira Service Management) : workflows, formulaires, règles d'approbation, dashboards, notifications, automatisations. * Piloter les tests fonctionnels et d'intégration, organiser les mises en production, garantir la stabilisation post-démarrage. * Produire la documentation de passage en exploitation : runbooks, procédures d'exploitation, supervision, sauvegarde, procédures de support, critères d'acceptation RUN, et plan de transfert de compétences. E. Intégration Change, Release et Calendrier de Déploiement : * Assurer la cohérence entre la gestion des changements, la gestion des releases, le patching, le calendrier et les contraintes d'exploitation. * Contrôler la readiness des releases : plan de déploiement, plan de rollback, communication, support, procédures de retour arrière testées. * Garantir la complétude des dossiers de changement avant validation CAB, y compris les éléments nécessaires pour l'exploitation. F. Amélioration Continue, Conformité et Contrôle Interne : * Suivre les indicateurs clés de performance (KPI) : taux de réussite des changements, incidents post-change, dérogations, non-conformités. * Piloter les actions d'amélioration continue : révision des processus, évolution des outils, formation des équipes. * Maintenir une capacité de réponse aux audits et contrôles internes : traçabilité, horodatage, justification des actions, preuves de tests et de rollback. 3. Livrables Attendus : * Politique et procédure Change Management : workflows ITSM, modèle de gouvernance CAB. * Calendrier des changements : PV des comités CAB, registre des décisions et actions. * Dossiers standard de changement : analyse d'impact, plan de tests, plan de rollback, check-list mise en production, post-implémentation review. * Dossiers d'architecture : HLD, LLD, modèle de données, intégrations, exigences non fonctionnelles, exploitabilité. * Packages de configuration et documentation de livraison : paramétrage, scripts, intégrations, guides d'administration. * Dossier de passage en exploitation : runbooks, procédures support, supervision, alerting, sauvegarde, critères d'acceptation RUN, transfert de compétences. * Tableau de bord KPI et KRI : rapports mensuels, registre des dérogations, plans de remédiation. 4. Indicateurs de Performance (KPI/KRI) : KPI : * Taux de succès des changements (sans incident majeur). * % de changements livrés dans la fenêtre prévue et conformément au plan. * Délai de cycle par typologie (standard, normal, urgent). * % de changements standard automatisés et conformes. * % de livraisons acceptées par le RUN sans réserves majeures. * % de dossiers complets acceptés sans reprise. * Taux de conformité des solutions livrées aux standards d'architecture. KRI : * Taux d'échec des changements (Change failure rate) et taux de rollback. * % de changements urgents et dérogatoires. * Changements non autorisés ou non tracés. * Incidents majeurs post-change, notamment sur les services CIF. * Non-conformités récurrentes (preuves manquantes, validations absentes, tests insuffisants). * Réserves RUN non levées avant jalons critiques. * Écarts aux standards d'architecture (dérogations non approuvées).
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Nous recherchons pour le compte de notre client grand compte un service delivery manager. Vos missions seront : Le Service Delivery Management (SDM) est le centre de coordination qui relie l'équipe des opérations, l'ingénierie et l'ITSM autour de trois piliers fondamentaux : 1- Gestion des actifs, de l'obsolescence et des vulnérabilités : maintenir une vue actualisée et traçable de chaque actif de la chaîne de production, évaluer en permanence son risque d'obsolescence et s'assurer que des plans d'action concrets et assortis de délais existent et sont suivis. 2- Gouvernance des incidents/problèmes/changements basée sur les KPI – définir, collecter et analyser les KPI les plus pertinents en matière de prestation de services, déclencher automatiquement des alertes lorsque les seuils sont dépassés et encourager la création et l'exécution de plans d'action correctifs avec les responsables appropriés. 3- Suivi centré sur les parties prenantes – mettre en place un processus de coordination structuré et transparent (réunions hebdomadaires, mises à jour du comité de pilotage) afin que chaque risque, problème ou changement soit pris en charge, suivi et résolu. - Registre des actifs et cycle de vie : définir le processus complet du cycle de vie et synchronisation hebdomadaire avec le responsable de l'équipe des opérations pour valider les nouveaux actifs/les actifs supprimés - Gestion des risques d'obsolescence : mettre en place une liste de surveillance automatisée (feuilles de route des équipementiers, avis de fin de vie, flux d'informations sur les tendances du marché), attribuer une note de 0 à 5 à chaque actif en fonction du risque d'obsolescence et produire une carte thermique trimestrielle à l'aide des outils CIB existants, coordonner avec toutes les parties prenantes afin d'élaborer des plans d'atténuation concrets - KPI incidents/problèmes/changements : identifier l'ensemble de KPI requis par le comité de pilotage de la production, documenter les sources de données, les formules de calcul, les seuils et les responsables pour chaque KPI, configurer la collecte automatique à partir de l'ITSM - Tableau de bord et moteur d'alerte : créer un tableau de bord PowerBI / ITSM en temps réel qui extrait les données des KPI. - Rapports au comité de pilotage : préparer un aperçu des KPI pour le comité de pilotage de la production, en mettant en évidence les tendances et les infractions. Coordonner avec les parties prenantes pour préparer les statuts de remédiation à présenter. Veiller à ce que les procès-verbaux soient résumés et les actions suivies. NB : Toutes les communications se font en anglais.
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un AUTOMATICIEN - F/H au sein de nos équipes pour accompagner l'un de nos clients du secteur de l'aéronautique à Villaroche-Réau (77). Au sein du pôle bancs d'essais, vous interviendrez dans la conception, l'installation, la programmation, le réglage et le dépannage des bancs d'essais de moteurs d'avions sur des automates SIEMENS (Tiaportal). Vos missions ? - Assurer le développement et le support (Recherche de panne ou diagnostiques) des systèmes de pilotage et d'acquisition Banc (API, Electrique, ...) - Participer à la conception et correction des Schémas Electrique - Assurer le suivi et le respect des règles internes lié à la conception Electrique : Organisation des composants, règles de nommage, standard schémas électriques - Participer à la gestion de l'obsolescence matériel : Identification du matériel à risque et construction de plan de mise à niveau - Assurer la validation, la non-régression et la mise au point au laboratoire des configurations API. - Il assure le déploiement sur les moyens d'essais, en respectant le planning hebdomadaire, tout tenant compte des contraintes actualisées. - Il assure la diffusion des états d'avancement (intermédiaires et finaux) des programmes de développement et de mise au point des moyens d'essais. - Participer à l'état des lieux du parc Automate (hard / soft) par mise à jour permanente des tableaux synthèse (inventaire pièces de rechange / version de soft) - Participer à la robustesse et la fiabilité des moyens d'essais afin de permettre aux différents services essais d'en attendre un bon rendement et un usage simple et efficace. - Viser à maximiser l'homogénéisation et la modularité des moyens d'essais pour en limiter le coût d'exploitation et en augmenter la flexibilité. - Rédiger de notices et manuel utilisateurs - Réaliser du reporting d'activité via documentation des tickets de suivi des interventions. - Remontée d'information pour Mise à jour / vérification de conformité des plans en fonction de écarts relevés sur le terrain. Quels livrables ? - Fiches de recette soft / test de non-régression - Création et réponse tickets base de données [i-bancs] - Mise à jour tableau de synthèse version de soft tous bancs + mail de diffusion de mise à jour - Reporting d'avancement par mail en mode projet - Inventaire pièces de rechange
Déposez votre CV
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
100% gratuit
Aucune commission prélevée sur votre mission freelance.