L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 877 résultats.
Mission freelance
Consultant eCommerce & PIM (H/F) - 92
Publiée le
Agile Scrum
API
Azure DevOps
3 mois
500-700 €
Hauts-de-Seine, France
Télétravail partiel
En tant qu'expert Webshop & PIM, vous serez responsable de la coordination et de l’exécution de bout en bout des vagues de construction et de déploiement de la roadmap e-commerce B2B & PIM. 1. Conception du Core Model & Gestion Agile des Livraisons Définir et valider le core model Webshop B2B et PIM avec les business owners, l’intégrateur et les éditeurs, en garantissant la standardisation et la scalabilité multi-pays. Construire, prioriser et gérer le backlog produit selon la valeur métier et les retours utilisateurs. Piloter la livraison agile avec l’intégrateur et les équipes IT : planification des sprints, suivi du développement, et validation des attentes métier. Proposer des évolutions pour améliorer l’expérience utilisateur et la performance commerciale. 2. Coordination de Projet & Déploiement Suivre les livrables, jalons et activités clés du programme. Coordonner les flux métiers, IT et intégration pour garantir la préparation à chaque phase (Discovery & Alignment, Build MVP, Acceptance & Deployment). Identifier les interdépendances entre les pays et les différents streams (ERP, Master Data, etc.). Anticiper les risques projet et mener les actions de mitigation. Définir et faire respecter les voies d’escalade. 3. Tests & Support Go-live Organiser, coordonner et valider les plans de test (UAT) avec les équipes QA et les utilisateurs clés. Vérifier que les livrables digitaux répondent aux exigences métiers et fonctionnelles. Apporter un support actif pendant les Go-live : validation de la migration des données, surveillance du comportement système, traitement des anomalies. 4. Adoption Utilisateur & Formation En collaboration avec l’intégrateur, les équipes projet et le Change Lead, organiser ou soutenir les sessions de formation et produire la documentation utilisateur. Recueillir les retours durant les phases pilotes et ajuster avant les déploiements à grande échelle. 5. Organisation Run & Amélioration Continue Participer à la structuration de l’organisation Run : définition des rôles, responsabilités et escalades. Gérer les demandes d’évolution et prioriser selon la valeur métier. Suivre les indicateurs de performance clés et utiliser les retours pour améliorer continuellement le produit.
Mission freelance
Data Engineer GCP – Freelance (H/F)
Publiée le
Google Cloud Platform (GCP)
1 an
400-630 €
Île-de-France, France
Télétravail partiel
Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .
Offre d'emploi
Business Analyst – Processus Achats (H/F)
Publiée le
Business Analyst
Confluence
JIRA
6 mois
38k-45k €
350-410 €
Saint-Cloud, Île-de-France
Vous souhaitez participer à un projet de transformation où digitalisation et performance des achats se rencontrent ? Nous recherchons un Business Analyst pour accompagner une équipe dans la mise en place de solutions innovantes intégrant l’intelligence artificielle au cœur des processus de procurement. Vos principales missions : Recueillir et analyser les besoins des équipes achats, les formaliser sous forme de spécifications fonctionnelles claires et précises. Traduire ces besoins en user stories dans JIRA et participer à leur priorisation avec le Product Owner. Définir et exécuter les tests d’acceptation afin de garantir la conformité des développements. Assurer le suivi du backlog produit, communiquer avec les équipes de développement et participer aux rituels Agile. Documenter les fonctionnalités dans Confluence et veiller à la mise à jour continue du référentiel fonctionnel. Contribuer au support fonctionnel et à l’analyse des incidents sur les solutions déjà en production.
Offre d'emploi
Analyste Applicatifs Banque H/F
Publiée le
55k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Analyste Applicatifs Banque H/F dans le cadre d'un CDI. Rattaché au Responsable Applications Métiers, l'Analyste Applicatifs Banque H/F assure le support applicatif, la gestion des données bancaires et réglementaires, ainsi que l'accompagnement des projets liés aux référentiels et aux outils de production documentaire. Responsabilités : Support et assistance utilisateurs (N2/N3) : Diagnostic, traitement et suivi des incidents liés aux applications métiers Gestion des données référentiels : Gestion des données bancaires et réglementaires : fiabilisation, contrôle qualité et suivi des données critiques (tiers, comptes, opérations), Central File (référentiel tiers & comptes) : gestion, paramétrage et évolution, Production documentaire : Relevés/avis bancaires : contribution à la mise en place, au suivi et à l'optimisation des processus de production documentaire et de gestion des documents, Projets IT et évolutions applicatives : Participation active aux phases de conception, tests, recette et mise en production dans un mode projet structuré (Agile / Cycle en V), Amélioration continue : Mise en place de procédures, proposition d'axes d'amélioration, optimisation des processus existants, Coordination et relations externes : Interface avec les équipes métiers, les éditeurs (Temenos T24, FCM, VBank, etc.), et les prestataires externes.
Mission freelance
PO data - GCP/Power BI - Supply
Publiée le
BigQuery
Google Cloud Platform (GCP)
1 an
620-710 €
Paris, France
Télétravail partiel
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,
Offre d'emploi
Architecte Solutions Cloud AWS – Expertise Data & Architecture Résiliente
Publiée le
Apache Spark
AWS Cloud
DevOps
18 mois
60k-80k €
500-740 €
Île-de-France, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, spécialisé dans l’accompagnement des transformations technologiques et organisationnelles. Nous intervenons auprès de grands comptes dans les domaines de la finance, de l’IT, des télécommunications et de l’énergie , sur des projets à fort impact stratégique. Nos expertises couvrent le Cloud, le DevOps, la Data, la sécurité , et la conduite du changement . Dans le cadre d’un projet de modernisation d’infrastructures Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud AWS expérimenté(e) . Vous interviendrez sur la conception, l’implémentation et la gouvernance de solutions Cloud, tout en accompagnant les équipes internes dans l’adoption des bonnes pratiques AWS et Data Management. Votre rôle combinera expertise technique, accompagnement au changement et acculturation Cloud auprès d’équipes d’architectes et de développement. Vos missions principales Concevoir et faire évoluer des architectures Cloud AWS sécurisées, performantes et évolutives. Participer à la conception de solutions hybrides permettant la réversibilité et la consommation de données entre cloud et on-premise. Déployer et accompagner des solutions Data Management sur AWS (Snowflake, Starburst, Minio, Apache Spark). Fournir expertise et conseil sur les bonnes pratiques AWS et l’optimisation des investissements cloud. Réaliser et présenter les dossiers d’architecture auprès des instances de gouvernance. Acculturer et former les équipes internes sur les services et principes fondamentaux d’AWS. Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente , la culture DevOps et les méthodes Agile
Mission freelance
(Nord - 59) - Data engineer
Publiée le
Terraform
6 mois
360-380 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Objectif global : Accompagner le domaine Supply sur l'expertise de sa data Contrainte forte du projet Activités de RUN (maintien en condition opérationnelle) de BUILD (développement) et d'EXPERTISE Les livrables : Météo quotidienne, Remontées d'alertes Scripts, requêtes, planifications Documentations, Etats d'avancement Description détaillée Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
Analytics Engineer - Microsoft Azure (H/F)
Publiée le
Azure
Databricks
DAX
12 mois
500-620 €
Île-de-France, France
Télétravail partiel
Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.
Mission freelance
Business Analyst technico-fonctionnel modélisation des données
Publiée le
BigQuery
Collibra
Confluence
4 mois
510 €
Paris, France
Télétravail partiel
Le Shopping Data Hub d’Air de la compagnie est un nouveau hub de données développé sur Google Cloud Platform (GCP) qui reçoit, réconcilie, stocke et partage les données du processus d’achats client allant de la recherche client, aux offres vols et options proposées à nos clients jusqu’à la réservation (order). Le Client s’est inscrit dans un grand projet de changement de sa manière de vendre des billets et options afin d’aller vers un modèle plus orienté vers le commerce de détail. Nous allons donc passer d’un système « dossiers de référence – billets » à un modèle « commande ». L’objectif de la mission est de construire le modèle de données d’un des futurs data hubs les plus importants de la direction Commerciale.
Mission freelance
Data engineer GCP SPARK PYTHON
Publiée le
Python
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
DevOps – Microsoft Fabric / Azure
Publiée le
.NET
AWS Cloud
Azure
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.
Mission freelance
Feature Owner Middle-Office Collatéral
Publiée le
AMOA
Business Analyst
1 an
400-690 €
Montrouge, Île-de-France
Télétravail partiel
Vos missions principales au sein du programme Collat management géré en mode agile : - La rédaction des expressions de besoin métier en collaboration avec les MO collat - Assurer une harmonisation des process liés à la collat en vision mondiale en limitant les besoins spécifiques - L’interaction avec les business analysts IT afin de projeter les développements - Prioriser les expressions de besoins et les critères d’acceptation au sein des sprints en accord avec le product owner - Etablir les jeux de tests nécessaires, procéder aux tests unitaires et cordonner les tests de bout en bout de la chaîne avec les utilisateurs finaux - Concevoir les écrans de l’outil et les workflow métiers
Mission freelance
Business Analyst
Publiée le
Business Analysis
Business Analyst
Java
1 an
Boulogne-Billancourt, Île-de-France
Vous aimez plonger au cœur d’architectures exigeantes et contribuer à la stabilité de solutions essentielles au quotidien des utilisateurs ? Vous voulez rejoindre une équipe qui allie expertise fonctionnelle et technicité ? Ne cherchez plus ! Nous recherchons un·e Business Analyst expérimenté·e pour accompagner les projets au sein de l’équipe Paiement & Services. Le périmètre couvre notamment : la monétique (cycle de vie des cartes bancaires, contestation d’opérations…), les virements instantanés et hors SEPA, la mobilité bancaire, ou encore le service Verification of Payee . Intégré·e à l’équipe, vous interviendrez sur des projets à forts enjeux fonctionnels et techniques, en lien direct avec les développeurs, les équipes métiers et le centre de développement externalisé. À terme, vous pourrez être amené·e à prendre ponctuellement un rôle de chef de projet sur de petits périmètres — l’activité principale restant la Business Analysis. Vos principales responsabilités : Cadrer les demandes et projets en lien avec l’Expression des Besoins Métier Rédiger les spécifications fonctionnelles générales et détaillées Superviser les travaux de développement réalisés en outsourcing Réaliser les tests IT et les tests de non-régression Accompagner et supporter les équipes métiers lors des phases de recette Préparer les mises en production : planification, coordination, validation du périmètre fonctionnel livré Assurer le suivi post-production : analyse des incidents, suivi des correctifs et évolutions, maintenance Garantir la qualité, la cohérence et la stabilité des livraisons applicatives Environnement technique : PostgreSQL, Oracle (SQL) Applications Java Web services Kafka, MQ (apprécié) Modélisation relationnelle Analyse de logs
Offre d'emploi
Consultant MOA (ALM / Trésorerie / Liquidité / Data) (H/F)
Publiée le
Alteryx
Finance
Gestion des risques
3 ans
50k-70k €
550-650 €
Paris, France
Télétravail partiel
Dans le cadre de la maintenance évolutive de solutions dédiées au pilotage financier, à l’ALM et à la trésorerie de notre client Bancaire , vous interviendrez sur les évolutions sur des applications stratégiques (ALM, gestion de liquidité, suivi de trésorerie). La mission s’inscrit au sein d’une direction des systèmes d’information dédiée à la gestion des actifs financiers, des flux de trésorerie et du pilotage bilan. Les applicatifs concernés sont des progiciels du marché (ex. RiskPro, QRM) et des solutions de reporting/data visualisation (Alteryx, Tableau, Business Objects). Maintenance évolutive et corrective des applications (chaîne complète : alimentation des données, moteur/progiciel, restitutions). Support de production (suivi des arrêtés mensuels/quotidiens, assistance aux métiers et aux équipes SI). Pilotage et coordination (participation aux comités, suivi des sujets confiés, traitement des évolutions réglementaires). Projets d’évolution (montée de version, migration technique). Production de livrables (spécifications, cahiers de recette, bilans de tests, comptes rendus). Transfert de compétences et partage de connaissances auprès des équipes internes.
Mission freelance
Digital Analyst Senior
Publiée le
JIRA
Looker Studio
Microsoft Teams
1 an
400-580 €
Paris, France
Dans le cadre du renforcement de l’équipe Analytics, nous recherchons un profil Digital Analyst Senior pour assurer la continuité des activités d’analyse et de pilotage de la performance digitale sur différents univers : Espace Client Entreprise, l'épargne et la vente (nouveaux parcours dédiés aux prospects). Le consultant interviendra en remplacement temporaire d’un membre de l’équipe et aura pour objectif d’assurer le suivi des parcours digitaux, la mise en place des plans de marquage et la production d’analyses et tableaux de bord destinés aux équipes Produit, Marketing et IT. L’objectif principal est de maintenir un haut niveau de qualité et de fiabilité des données, de garantir la continuité des analyses stratégiques et d’accompagner les projets digitaux dans une logique d’amélioration continue des performances. Description Le consultant interviendra sur l’ensemble du périmètre Digital Analytics : Conception des plans de tracking en mode Agile; Recette et validation du tracking via Commanders Act (TagCommander) ; Mise en place et suivi des KPIs de performance et d’engagement utilisateur ; Production d’analyses quantitatives et qualitatives sur les parcours clés (souscription, espace client, épargne, etc.) ; Construction et maintenance de dashboards (Looker Studio, Piano Analytics) ; Participation aux rituels agiles : sprint reviews, grandes démos, ateliers de conception et comités analytics ; Proposition et mise en place de tests A/B (AB Tasty) afin d'optimiser nos parcours Contribution à la gouvernance analytics : documentation, partage des bonnes pratiques, et veille sur les évolutions outils/méthodes. Livrables Plans de marquage documentés; US fonctionnelles alimentées dans Jira avec les éléments de tracking ; Recette de tracking complètes et validée ; Dashboards (LookerStudio/Piano Analytics) ; Analyses et synthèses d'insights (slides, tableaux de bord) ;
Mission freelance
225962/Proxy Data Owner - Gouvernance de la donnée
Publiée le
Gouvernance
6 mois
Paris, France
Télétravail partiel
Proxy Data Owner Dans le cadre d’un programme de valorisation de la donnée, une grande institution publique recherche un(e) Proxy Data Owner pour accompagner une communauté de Data Owners (15 à 20 personnes) dans l’atteinte de leurs objectifs annuels Data. La mission s’inscrit dans une démarche d’autonomisation et de montée en compétence des Data Owners, sans se substituer à leur rôle métier. Goals and deliverables Accompagner chaque Data Owner et ses adjoints dans la réalisation de leurs objectifs annuels Data, fixés par la direction Data. Être force de proposition sur la démarche à suivre pour chaque objectif, en s’appuyant sur les outils et processus internes existants. Mettre en place et suivre les outils nécessaires à l’atteinte des objectifs. Centraliser et analyser les problématiques de qualité de données sur chaque périmètre, piloter les actions de remédiation et assurer le suivi des correctifs. Maintenir à jour la cartographie des données pour chaque Data Owner (liste, description, règles de gestion, golden record…). Formaliser la démarche de réalisation des objectifs et actualiser les indicateurs d’atteinte. Remonter de façon proactive les alertes de blocage ou de risque de non-atteinte des objectifs à la direction Data. Maintenir un backlog à jour des disqualités de données et produire des comptes-rendus des actions de remédiation menées (qu’elles soient concluantes ou non). Livrables attendus : Cartographie des données à jour pour chaque Data Owner. Formalisation de la démarche de réalisation des objectifs et indicateurs d’atteinte. Backlog à jour des disqualités de données et comptes-rendus des actions de remédiation. Compétences requises : Gouvernance de la donnée : Maîtrise des principes de gouvernance des données, notamment la cartographie, la qualité et les règles de gestion. Outils spécialisés : Expérience avec des outils de cartographie des données et/ou de gestion de la qualité des données. Analyse et remédiation : Capacité à centraliser et analyser les problématiques de qualité de données, à proposer et piloter des solutions efficaces. Gestion de projet Data : Expérience confirmée dans la gestion de projets Data, idéalement dans le secteur public. Méthodes agiles : Connaissance de Jira et du mode Produit, capacité à évoluer dans un contexte agile (Scrum, SAFe ou équivalent). Communication et leadership : Excellentes qualités relationnelles, capacité à travailler en équipe, à animer des réunions et à communiquer avec des interlocuteurs variés, y compris la direction. Synthèse et rédaction : Esprit d’analyse, de synthèse et qualités rédactionnelles. Expected skills Skills Skill level gouvernance data Expert AGILE Confirmed Analyse et synthèse Expert Qualité DES données Expert
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Obtenir un numéro D.U.N.S en auto entreprise
- Choix mission fonctionnel data
- Stratégie épuisement des fonds jusqu'à la retraite
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
1877 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois