Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 828 résultats.
Freelance
CDI

Offre d'emploi
Directeur de programme IT

VISIAN
Publiée le
API
Big Data

1 an
Île-de-France, France
Missions 2.1. Pilotage & gouvernance Assurer le pilotage IT du programme OFS, en coordination étroite avec la direction de programme Finance Structurer et animer les instances de gouvernance : planning, risques, arbitrages, décisions, points transverses Être le point d’entrée IT unique pour les sponsors, avec une posture solide, affirmée et crédible 2.2. Structuration du cadrage Monter rapidement sur le cadrage déjà lancé et co-construire Produire un backlog IT multi-domaines solide et aligné sur les priorités Finance 2.3. Coordination transverse Organiser et synchroniser les contributions des équipes : Safir, Architecture, Data, Risk, intégration, externe/partners Garantir la bonne articulation entre les backlogs des squads, les études de cadrage et les autres travaux du programme Identifier et résoudre les points de friction (capacités, périmètre, dépendances techniques ou organisationnelles) 2.4. Gestion des risques Identifier les risques stratégiques : exemple architecture, données, dépendances, planning, disponibilité des équipes Construire un plan d’actions robuste et assurer le suivi des arbitrages avec les sponsors 2.5. Communication & alignement Fournir un reporting exécutif clair pour : CODIR DSI, Finance, Groupe, sponsors Créer un environnement de travail fluide, aligné, transparent — tout en conservant la fermeté nécessaire au cadrage Compétences et profil attendu 3.1. Expérience indispensable Expérience avérée de direction de grands programmes stratégiques (gros projets de transfo Finance et/ou convergence vers plateformes groupe) ; idéalement à forte exposition Groupe/COMEX Expérience solide en pilotage dans une organisation agile @scale, incluant : multi-squads multi-backlogs synchronisation QAP interaction avec les rôles agiles (PO, SM, RTE, Tribe Lead) Capacité démontrée à opérer dans un environnement hybride : cadrage stratégique + delivery agile
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Alternance

Offre d'alternance
Data Analyst - Payment (f/m/d) - Alternance

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur Virtualisation & Automatisation VMware / Ansible (H/F)

RIDCHA DATA
Publiée le
Ansible
DevOps
Python

1 an
Charenton-le-Pont, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’optimisation des plateformes de virtualisation, vous intégrerez une équipe spécialisée Virtualisation & Automatisation. La mission vise à accompagner la croissance des activités métiers tout en garantissant la performance, la disponibilité et l’industrialisation des infrastructures. Vous interviendrez dans un environnement transverse en collaboration avec les équipes Réseaux, Stockage et DevOps. Missions principales Virtualisation & Infrastructure Déployer et maintenir les infrastructures VMware ESXi Administrer les environnements NSX, VSAN et Horizon View Participer aux projets d’évolution des infrastructures virtualisées Assurer le maintien en condition opérationnelle des plateformes Automatisation & Industrialisation Concevoir et mettre en œuvre des solutions d’automatisation Développer des scripts d’automatisation et d’exploitation Industrialiser les processus opérationnels Utiliser les API et méthodologies DevOps pour optimiser les opérations Exploitation & Support Traiter les incidents et demandes techniques Réaliser les diagnostics et résoudre les problèmes complexes Assurer le capacity planning des infrastructures Garantir la disponibilité, la sécurité et la qualité des systèmes Architecture & Expertise Participer aux études techniques et aux évolutions d’infrastructure Réaliser les designs techniques et les paramétrages avancés Définir les standards, méthodes et bonnes pratiques Assurer une veille technologique continue Coordination & Conseil Collaborer avec les équipes Réseaux, Stockage et DevOps Assurer un rôle de conseil et d’expertise technique Participer à la qualification des solutions et infrastructures Compétences recherchées Compétences impératives Ansible – Niveau Expert VMware vSphere / ESXi – Niveau Expert Très bonnes compétences en scripting et automatisation Expertise API & méthodologies DevOps Compétences importantes Python – Niveau confirmé Automatisation AAP2 Gestion des environnements virtualisés complexes Compétences appréciées NSX VSAN Horizon View PureStorage iSCSI / SAN
Freelance

Mission freelance
Product Manager Senior (H/F)

Okara
Publiée le
Big Data
Product management

6 mois
Lille, Hauts-de-France
Tu rejoindras un client du retail pour jouer un rôle moteur dans le développement de leurs solutions externes. Ton quotidien ? Piloter la vision, la conception et l'amélioration continue de produits complexes tout en garantissant une excellence opérationnelle sur les phases de Discovery et de Delivery. Tu seras le·la garant·e de l'alignement stratégique avec les parties prenantes, transformant des problématiques métier en opportunités technologiques concrètes au sein d'un environnement riche en données.
Freelance

Mission freelance
Business Analyst Data – AI / Snowflake - Full remote

Net technologie
Publiée le
Agent IA
AI
Data modelling

3 mois
400-420 €
France
Dans le cadre d’un projet innovant de transformation data, nous recherchons un(e) Business Analyst pour accompagner le déploiement d’une solution basée sur un agent IA (LLM). 🎯 Objectif : permettre aux utilisateurs d’interroger les données en langage naturel via des requêtes SQL générées automatiquement. 🚀 Missions Alignement entre besoins métiers & data product Gestion des requirements & user stories (Agile Scrum) Contribution au backlog et aux releases Validation des modèles de données & qualité des données Participation aux tests fonctionnels & QA Coordination avec PO, équipes data & métiers 👉 Mission au cœur des enjeux Data & IA Générative appliquée au business .
Freelance
CDI

Offre d'emploi
Data Scientist / Machine Learning Engineer – IA & Data Innovation

AVA2I
Publiée le
Data science

1 an
Île-de-France, France
Au sein d’une direction dédiée à la couverture clients et à l’investissement, vous rejoignez une équipe en charge de la performance commerciale et de l’optimisation de la relation client . L’objectif est de maximiser la valeur des portefeuilles clients en combinant : analyse stratégique allocation des ressources accompagnement opérationnel des équipes commerciales Dans ce cadre, l’équipe Data & Innovation renforce ses capacités pour mettre la Data et l’Intelligence Artificielle au service du business .
Freelance

Mission freelance
Data Analyst Tibco / MDM (Niort)

Cherry Pick
Publiée le
Atlassian
Confluence
Data analysis

12 mois
470-500 €
Niort, Nouvelle-Aquitaine
Au sein de la direction Data Solutions & Intelligence Artificielle de notre Client à Niort : Data Solutions : collecte, structuration, traitement et diffusion des données pour les métiers Intelligence Artificielle : développement d’usages responsables et performants au service des clients et collaborateurs Dans le cadre du projet (référentiel unique Personne), l’équipe souhaite renforcer son pôle études / cadrage / maturation en amont des développements. 🚀 Objectifs de la mission Analyser les évolutions à venir sur le référentiel Réaliser les études d’impact sur les composants du SI Participer au cadrage fonctionnel et technique Préparer les sujets avant transmission à l’équipe de réalisation 🛠️ Activités principales Étudier les besoins métiers et les traduire en exigences data Réaliser les analyses d’impact multi-systèmes Produire les livrables de cadrage : Spécifications fonctionnelles et techniques Schémas d’architecture et de flux Supports de présentation Collaborer avec les équipes : Data IT Métiers Participer aux échanges et suivi via les outils Agile ⚙️ Environnement technique APIs & middleware : TIBCO MDM : Informatica MDM Data Quality : Informatica Data Quality Base de données : MongoDB Traitements : Java Outils collaboratifs : Jira / Confluence (Atlassian) 📦 Livrables attendus Dossiers d’étude d’impact Spécifications détaillées Schémas d’architecture et flux Présentations de cadrage pour validation
Freelance

Mission freelance
Architecte DATA Modélisation - Assurance

CAT-AMANIA
Publiée le
MEGA HOPEX
TOGAF
UML

3 ans
550-710 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert en Modélisation pour rejoindre une équipe d'Architecture Solutions SI. Votre mission consistera à définir l’architecture de données des projets stratégiques, en assurant la cohérence entre les besoins métiers et les objectifs de rationalisation du système d'information. Vos principales missions : Réaliser la modélisation fonctionnelle des objets métiers (MFC) à partir des modèles de référence. Assurer la mise à jour de la cartographie applicative et data sous Mega HOPEX . Accompagner les équipes de développement dans la déclinaison des modèles logiques (MLD) et physiques (MPD). Produire les dossiers d'architecture et porter les engagements techniques lors des comités de validation. Animer la communauté architecture et participer à l'acculturation des équipes aux normes de données. Environnement technique & méthodologique : Méthodes : TOGAF, UML, Merise. Frameworks : Scrum, Safe, Cycle en V. Écosystème : Java, Environnements Mainframe (Cobol/DB2) et Open (Oracle, PostgreSQL), Big Data (Cloudera), DataGalaxy.
Freelance
CDI

Offre d'emploi
Consultant Data gouvernance

UCASE CONSULTING
Publiée le
DataGalaxy
Master Data Management (MDM)

1 an
40k-45k €
400-630 €
Île-de-France, France
Bonjour à tous 😀 Nous recherchons un(e) 📌 Contexte Dans le cadre de sa transformation Data, notre client souhaite renforcer la maturité de sa DSI en matière de gouvernance des données et se positionner comme référent Data pour l’ensemble de ses filiales. La démarche s’inscrit en deux grandes phases : → Acculturation & structuration → Outillage & industrialisation 🎯 Missions : 🔹 Phase 1 : Acculturation & structuration Sensibiliser les équipes métiers et IT aux enjeux Data Animer des ateliers (Data Governance, MDM, référentiels) Réaliser un audit de maturité Data Définir les bonnes pratiques de gouvernance Mettre en place les rôles clés (Data Owner, Data Steward) Construire un parcours d’acculturation et d’adoption Data Accompagner la transformation de la DSI en référent Data Groupe 🔹 Phase 2 : Outillage & industrialisation : Déployer un Data Catalogue (DataGalaxy) Structurer les référentiels et le MDM Mettre en place une plateforme de knowledge sharing Définir et implémenter les processus de gouvernance (qualité, documentation, lineage) Animer la gouvernance Data dans la durée ⚙️ Environnement technique : Microsoft Fabric · Databricks · Architecture Medallion (Bronze / Silver / Gold) Talend · Pimcore (MDM) · DataGalaxy · SharePoint 💡 En résumé 👉 Profil hybride stratégique + opérationnel , capable de : Structurer une gouvernance Data from scratch Acculturer et embarquer les équipes Déployer les outils (notamment DataGalaxy) et industrialiser les pratiques
CDI

Offre d'emploi
Lead Architecte Data Senior (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
SQL

55k-70k €
Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur Automatisation & Monitoring MDM (H/F)

RIDCHA DATA
Publiée le
Master Data Management (MDM)

1 an
40k-45k €
400-480 €
Villeurbanne, Auvergne-Rhône-Alpes
👤 Profil recherché Expérience en ingénierie des infrastructures et automatisation Capacité à intervenir sur des environnements techniques complexes Bonne compréhension des problématiques liées au MDM et à la gestion de parc mobile Français courant (impératif) Anglais professionnel (souhaité) 🧠 Compétences clés Analyse et compréhension des besoins métiers Conception technique et développement Gestion des infrastructures et MCO Résolution d’incidents et optimisation des performances Veille technologique 🤝 Qualités personnelles Autonomie et rigueur Esprit d’analyse et de synthèse Sens du service et de la qualité Capacité à travailler en environnement transverse Force de proposition 📌 Informations complémentaires Intervention sur des projets d’infrastructure et d’automatisation Environnement technique en constante évolution Participation aux phases de Build et Run
Freelance
CDI

Offre d'emploi
Data Engineer - Migration Data Lake

VISIAN
Publiée le
Data Engineering
Migration

1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Offre premium
Freelance

Mission freelance
Data Scientist – Prévision & Optimisation H/F

AXONE BY SYNAPSE
Publiée le
Electronic Design Automation (EDA)
MLOps
Monitoring

6 mois
Roissy-en-France, Île-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée Data Scientist – Prévision & Optimisation H/F . Le consultant interviendra en tant que contributeur individuel senior pour concevoir et développer des modèles avancés de prévision et d’optimisation. Le rôle couvre des problématiques complexes liées à la prévision de la demande, à l’optimisation des ressources et à la simulation opérationnelle. Le consultant travaillera en étroite collaboration avec des data engineers et équipes IA afin de transformer des problématiques métiers en solutions analytiques robustes, scalables et orientées décision. Le consultant interviendra principalement sur l’amélioration de modèles existants de machine learning et sur la couche d’optimisation associée, avec un fort enjeu autour de l’allocation optimale des ressources opérationnelles (planning, workforce, capacité). Le rôle requiert un profil très opérationnel (hands-on), capable de manipuler du code Python avancé, d’intervenir sur des modèles ML existants et surtout de développer et améliorer des modèles d’optimisation (notamment via Gurobi). Le consultant travaillera en étroite collaboration avec les équipes internes et le partenaire externe, avec un objectif clair d’appropriation et d’internalisation des compétences à horizon 12 mois. Objectif et livrable: Développement de modèles de prévision avancés (séries temporelles, probabilistes, hiérarchiques) Conception et implémentation de modèles d’optimisation (MIP, LP, heuristiques) Développement de frameworks de simulation pour la prise de décision opérationnelle Résolution de problématiques métiers complexes et ambiguës via des approches data science Construction de modèles de machine learning prêts pour la production Collaboration avec les équipes engineering pour le déploiement et le monitoring Garantie de la robustesse, explicabilité et performance des modèles Traduction des besoins métiers en solutions analytiques concrètes Collaboration avec équipes opérationnelles et produit pour délivrer des résultats mesurables Communication des insights aux parties prenantes techniques et non techniques Compétences attendues: Expertise en séries temporelles (forecasting avancé, probabiliste, hiérarchique) Maîtrise des techniques d’optimisation (MIP, LP, heuristiques) Solides compétences en Python (NumPy, Pandas, PyTorch, OR-Tools, SimPy, Gurobi) Expérience en modélisation statistique et analyse exploratoire de données (EDA) Déploiement de modèles en production (MLOps, monitoring) Maîtrise SQL et manipulation de données volumineuses Expérience: 6+ ans en Data Science / IA appliquée Télétravail (modalité, fréquence, contraintes): Hybride, 2 à 3 jours/semaine à distance selon localisation et contraintes projet
Freelance
CDI

Offre d'emploi
IT C- 0505 - Project Manager/Director AI Transformation

Craftman data
Publiée le
Agent IA
IA
IA Générative

1 an
40k-54k €
400-680 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d'une transformation IT majeure, le client déploie un programme autour de l'accompagnement des employés sur l'intelligence artificielle et de l'agentique, afin de soutenir la performance opérationnelle et l'innovation. Le/la consultant(e) interviendra en appui de la Direction de programme pour piloter et coordonner les initiatives de transformation IA au sein des équipes IT, avec un fort volet d'animation et d'accompagnement des équipes. Principales responsabilités • Contribuer au pilotage opérationnel du programme • Participer à la structuration et à la mise en œuvre des actions d'acculturation auprès des équipes IT • Animer une communauté interne autour de l'IA • Contribuer à la mise en cohérence des initiatives avec les référentiels internes • Préparer les éléments nécessaires aux instances de suivi et de gouvernance Compétences requises • Expérience confirmée en gestion de projet de transformation dans un environnement technologique (IA, Data) • Pratique avérée de la coordination transverse avec de multiples interlocuteurs • Expérience en grand groupe international et/ou organisation matricielle • Français et Anglais courants, à l'oral comme à l'écrit • Excellente capacité à communiquer et à collaborer avec des interlocuteurs variés et au top management
CDI
Freelance

Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI

3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
1828 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous