Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 011 résultats.
Freelance

Mission freelance
Expert informatica - Cloud Data intégration

Publiée le
Cloud
Informatica

36 mois
500-570 €
Niort, Nouvelle-Aquitaine
Installer et paramétrer les solutions Informatica PowerCenter et PowerExchange . Mettre en place les connecteurs vers différentes sources de données : DB2, Oracle, SAP, CDC . Assurer la gestion des incidents et le support aux projets . Accompagner les équipes de support au développement. Documenter les procédures d’exploitation. Participer à des projets de montée de version des solutions Informatica. Intervenir dans un environnement multi-sites (3 DataCenters) sous Linux et Windows .
Freelance

Mission freelance
Consultant SAP FI-CO Senior - Bruxelles

Publiée le
Business Process Model and Notation (BPMN)
SAP FICO

1 an
600-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du renforcement des activités financières et des projets de transformation, nous recherchons un Business Analyst SAP FI-CO senior pour intervenir sur la gestion des demandes complexes, le support avancé et des projets transverses à forte valeur ajoutée. Missions principales Prendre en charge l’ensemble des demandes non standards (NSSR) liées à SAP FI-CO Analyser et qualifier les demandes entrantes, en identifiant les solutions standard SAP lorsque cela est possible Rédiger les spécifications fonctionnelles en cas de développements spécifiques et assurer le relais avec les équipes techniques Présenter les demandes à fort impact lors des comités de gouvernance et participer aux décisions de priorisation Assurer un rôle de support fonctionnel de niveau 2 (RFI, incidents) Suivre et évaluer les niveaux d’urgence et les délais de traitement des tickets Participer à des projets transverses en tant qu’expert FI-CO (fusion, automatisation/RPA, normes IFRS, initiatives financières) Gérer les workflows et processus FI-CO via l’outil ITSM (tickets, cartes corporate, etc.) Apporter un support fonctionnel aux équipes SAP sur les sujets FI-CO
Freelance

Mission freelance
Proxy PO Assurance Vie (H/F)

Publiée le
API
Azure DevOps
Product management

1 an
Paris, France
Télétravail partiel
Le département des études informatiques de notre client recherche un Product Owner sur le périmètre de l’assurance-vie pour : Suivre les différents chantiers en coordination avec le métier, les compagnies d’assurance et les intervenants techniques, Renforcer l’équipe IT assurance-vie et effectuer la maintenance évolutive de l’application FST. Objectifs de la mission Le Product Owner aura pour mission de : Piloter la roadmap des évolutions fonctionnelles de l’outil FST en lien avec les besoins métiers et les contraintes techniques. Animer les ateliers de cadrage avec les parties prenantes : équipes métiers, compagnies d’assurance, éditeur, IT interne. Prioriser et gérer le backlog des user stories dans Azure DevOps, en garantissant la cohérence et la valeur ajoutée des livrables. Organiser et superviser les campagnes de tests d’intégration, de non-régression et de recette utilisateur. Assurer le support fonctionnel de niveau 2, en apportant une expertise sur les processus métier et les flux techniques. Mettre à jour la documentation fonctionnelle et technique, et contribuer à la capitalisation des connaissances. Livrables attendus : Roadmap projet détaillée et planning des chantiers. Backlog priorisé et user stories rédigées dans Azure DevOps. Cahier de tests et rapports de recette. Documentation applicative mise à jour. Reporting régulier sur l’avancement des travaux et les points de blocage.
Freelance

Mission freelance
Consultant XML & ISO 20022 – Cash Management

Publiée le
SWIFT
XML

1 an
Paris, France
Télétravail partiel
Mission Accompagner les projets de migration et d’industrialisation des flux de paiements (SWIFT MT→MX / ISO 20022), le reporting bancaire et la qualité de données. Responsabilités Analyse et conception des flux ISO 20022 / SWIFT MT-MX. Mise en place de convertisseurs multi-formats (MT940/942, BAI2, CAMT, GVC). Gouvernance et qualité des données : mapping, dictionnaires, validation XSD. Contribution à la recette, à la migration et à l’industrialisation. Support MOA/AMOA/PO, coordination et ateliers métiers.
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Agile Release Manager (Gouvernance & Orientation SRE)

Publiée le
Méthode Agile
Safe
Site Reliability Engineering (SRE)

1 an
550-650 €
Paris, France
Nous recherchons un(e) Agile Release Manager pour piloter la livraison de releases produits sur des domaines critiques de la monétique (Acquiring, Issuing, Dispute), au sein d’un programme structuré en Agile Release Train (ART) . Vous occupez un rôle central de pilotage, coordination et gouvernance , en assurant l’alignement stratégique et opérationnel entre les équipes Produit, Engineering, SRE, Sécurité et DevSecOps . Le poste est orienté gouvernance SRE et fiabilité , sans responsabilité d’implémentation technique ou d’expertise infrastructure. Missions principales 1. Pilotage et planification des releases Animer et synchroniser les Program Increment (PI) Planning Garantir l’alignement des équipes sur les engagements de livraison, les jalons et la roadmap produit Veiller au respect des exigences non fonctionnelles (performance, disponibilité, fiabilité) 2. Gestion des dépendances et des risques Piloter les plans de release , les dépendances et les risques de livraison Travailler en étroite collaboration avec les équipes Engineering et SRE Anticiper et résoudre les conflits inter-domaines (Produit, Tech, SRE, Sécurité, DevSecOps) 3. Suivi de la performance et reporting Suivre les KPIs de delivery , la vélocité et les indicateurs de risques Assurer un reporting clair, structuré et régulier auprès des parties prenantes Rendre visibles les alertes, arbitrages et décisions clés 4. Excellence opérationnelle et amélioration continue Garantir la cohérence des processus de delivery et des pratiques de release Promouvoir l’automatisation et la standardisation des processus (DevSecOps) Intégrer les pratiques de fiabilité (SRE, QA, Architecture) au sein des squads Contribuer à l’amélioration continue du modèle de gouvernance agile 5. Pilotage des partenaires et éditeurs Participer à la gestion des escalades opérationnelles (qualité, périmètre, planning) Contribuer au pilotage contractuel et au suivi des engagements partenaires Assurer le suivi budgétaire, la gestion des Change Requests et la gouvernance fournisseurs Animer les comités projet et comités de pilotage avec les tiers
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
CDI

Offre d'emploi
Incident Manager

Publiée le
Back office
Incident Management
ITIL

40k-45k €
Gradignan, Nouvelle-Aquitaine
Au sein de la direction de la production informatique de notre client bancaire, l’Incident Manager intervient au cœur du pôle Gestion des Incidents . Il/Elle garantit la qualité de service en assurant le suivi en temps réel des incidents critiques , la coordination des acteurs techniques , et une communication opérationnelle fiable auprès des parties prenantes internes. Missions principales : Supervision & gestion des incidents Suivre en temps réel les incidents critiques ou susceptibles de le devenir, impactant les Caisses Régionales. S’assurer du bon niveau de prise en charge par les équipes techniques. Piloter les communications opérationnelles lors des incidents (détection, escalade, suivi, rétablissement). Communication & coordination Diffuser une communication claire, rapide et pertinente sur l’avancement des incidents. Assurer la coordination entre équipes techniques, managers et représentants métiers. Tenir à jour le back-office du Pôle Communication (reportings, tableaux de suivi, alertes). Analyse & amélioration continue Rédiger les Post Mortem / rapports REX (causes, impacts, actions correctives). Contribuer à l’amélioration des processus d’incident management (ITIL). Proposer des axes de correction et d’optimisation afin de réduire les récurrences d’incidents majeurs.
Freelance

Mission freelance
Architecte données MDM

Publiée le
Architecture
Master Data Management (MDM)
SAP S/4HANA

1 an
Guyancourt, Île-de-France
Télétravail partiel
Objet de la Prestation La Prestation s’inscrit dans le cadre du remplacement des outils Après-Vente et particulièrement sur les données à remplacer dans les nouveaux SI. La Prestation consiste à : - Concevoir, piloter et sécuriser l’architecture Master Data pour l’ensemble des données de l’après-vente (pièces de rechange, réseaux, client, pricing, logistique). - Garantir la qualité, la cohérence et la disponibilité des données afin de soutenir les processus métier (Order to Cash, Procure to Pay, Supply Chain, Customer Relationship Management). - Suivre et coordonner les projets de migration ou d’évolution (ex. passage à un MDM cloud). Livrables attendus Les livrables attendus du PRESTATAIRE sont : - Schéma d’architecture cible et roadmap de mise en œuvre (données, flux, référentiels, gouvernance). - Catalogue de données et dictionnaire des référentiels (produit, client, fournisseur, réseau) compatibles avec les standards et l’écosystème digital (ERP, PIM, DMS, TMS, etc.). - Indicateurs de qualité (complétude, unicité, conformité) et rapports mensuels. - Vérification du respect RGPD et des exigences cybersécurité. - Mise en place la traçabilité et l’audit des données sensibles. - Plans de remédiation (nettoyage, dé-duplication, normalisation). - Mise en place des règles de gouvernance : ownership, rôles, workflow de validation. - Rédaction des spécifications techniques et fonctionnelles. - Tableau de bord sur l’état d’avancement des projets de migration ou d’évolution, avec point d’alerte en cas dysfonctionnement et solution proposée. - Dossier de capitalisation.
Freelance
CDI

Offre d'emploi
Service Delivery Manager (H/F)

Publiée le
Incident Management

3 ans
40k-45k €
550-600 €
Île-de-France, France
Dans un contexte grand compte du secteur bancaire, le poste s’inscrit dans un environnement exigeant, soumis à des contraintes fortes de disponibilité, de sécurité et de conformité réglementaire. Le titulaire du poste est garant de la bonne gestion des incidents de production et de la qualité de service délivrée aux métiers bancaires. Mission principale Assurer la gestion, la coordination et la communication autour des incidents de production impactant les services critiques bancaires, tout en pilotant l’amélioration continue des processus ITIL d’incident et de problem management. Responsabilités principales Gestion et qualification des incidents (P1, P2, P3) Prendre en charge et qualifier les incidents critiques impactant les chaînes métiers bancaires (paiements, SEPA/SWIFT, marchés, crédits, conformité…). Coordonner les actions pour rétablir rapidement le service en garantissant les SLA et les exigences d’audit. Assurer la traçabilité et le respect des processus réglementaires liés au secteur bancaire. Animation de cellules de crise et coordination transverse Organiser et animer les cellules de crise en cas d’incident majeur. Coordonner les équipes IT (infrastructure, réseau, applicatif), les équipes métiers et les prestataires externes. Faciliter la prise de décision rapide dans un contexte sous pression. Communication et reporting Assurer une communication claire et régulière auprès des directions IT, des métiers et des parties prenantes. Produire les reportings d’incidents, COPER, analyses d’impact et plans d’actions. Réaliser les retours d’expérience (REX) et suivre les engagements post-incident. Pilotage des processus ITIL (Incident & Problem Management) Déployer et optimiser les processus ITIL d’incident et de problem management. Réaliser les analyses de causes (RCA) et identifier les problèmes récurrents. Suivre les actions préventives et correctives, contribuer aux plans d’amélioration continue.
CDI

Offre d'emploi
Data Consultant (Tableau to Power BI Migration)

Publiée le
MSBI
Oracle SQL Developer
Tableau software

Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Freelance

Mission freelance
[SCH] Expert Data SQL / SSIS – Support & Migration (Lyon) - 1044

Publiée le

10 mois
350-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de migration et d’industrialisation des procédures Data, la DSI recherche un expert SQL / SSIS pour intervenir en support des équipes techniques et garantir la qualité, la performance et la conformité des infrastructures livrées. L’environnement technique est orienté Microsoft Data Platform (SQL Server, SSIS) avec une composante Kubernetes pour le déploiement et la supervision des traitements. Missions principales : -Assurer le support Data sur les environnements MS SQL et SSIS. -Recetter les infrastructures livrées : contrôle des droits, circuits de livraison, performance et intégrité des traitements. -Collaborer avec les équipes Infrastructure et Métier pour identifier les besoins et garantir la cohérence des flux. -Participer à la migration des procédures dans un cadre industrialisé (“mode usine”). -Produire la documentation technique et fonctionnelle à destination des équipes de développement. -Contribuer à la qualité, la performance et la sécurité des environnements Data. Objectifs & livrables attendus : -Environnements SQL/SSIS validés et optimisés. -Documentation technique claire et complète pour les développeurs. -Plan de migration et de transformation industrialisé. -Reporting d’avancement et analyse des performances. Profil recherché : - >8 ans d’expérience en environnement Data Microsoft (SQL, SSIS). -Expertise en projets de migration et en industrialisation de procédures. -Solide maîtrise du développement et des tests SQL / SSIS. -Bonne compréhension des environnements Kubernetes (déploiement / supervision). -Connaissance Teradata appréciée. -Excellente aisance rédactionnelle et rigueur documentaire.
Freelance
CDI

Offre d'emploi
ARCHITECTE DATA CENTER

Publiée le
Cisco IOS
Openshift
Routage IP

1 an
40k-58k €
400-600 €
78180, Montigny-le-Bretonneux, Île-de-France
Télétravail partiel
En tant qu'Architecte Réseau DC, vous serez responsable de la conception de la mise en œuvre des infrastructures réseau. Vous aurez pour principales missions : Mise en place des réseaux informatiques de l’entreprise : Concevoir et planifier des architectures réseau innovantes répondant aux exigences CAGIP pour garantir la disponibilité et la sécurité, en tenant compte des exigences de performance, de redondance et de scalabilité Collaborer avec les équipes d'ingénierie pour intégrer les nouveaux services et applications dans l'infrastructure réseau. Analyser les besoins des entreprises et des utilisateurs en termes de réseaux et rédiger des pré-études techniques de cadrage avant le lancement du projet. Identifier les scénarios d’architecture et réaliser leur chiffrage. Choisir les solutions techniques, le matériel, le logiciel et les opérateurs adéquats en tenant compte du rapport performance/coût. Superviser les relations avec les fournisseurs de solution et négocier les contrats au meilleur prix (rédaction et suivi d’appel d’offres…). Formaliser la description de la solution, la conception et justifier ses choix techniques. Participer aux études / phase de build pour tous les projets des clusters / pôles / entités… afin de cadrer au mieux les besoins en répondant avec des solutions conformes aux attentes mais également en respectant le cadre et les process du SI
Freelance

Mission freelance
Tech Lead / Senior DevOps SRE (Site Reliability Engineer)

Publiée le
CI/CD
DevOps
Incident Management

2 ans
600-700 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre de l’amélioration continue de sa plateforme de paiement, notre client – acteur majeur du secteur de l’hôtellerie – renforce son équipe SRE au sein de la Digital Factory. Nous recherchons un Tech Lead/ Senior SRE capable de porter la vision technique de la Platform Team et d’assurer la disponibilité, la résilience et la performance d’environnements cloud essentiels pour le fonctionnement des services de paiement. En tant que Tech Lead / Senior SRE, votre mission : Participer à l’ensemble des activités SRE tout en soutenant et en portant la vision technique de l’équipe. Concevoir et mettre en œuvre des architectures résilientes, sécurisées et évolutives (cloud, containers, automatisation). Définir les standards SRE , les bonnes pratiques DevOps et la stratégie technique : CI/CD, observabilité, sécurité, gestion des incidents. Assurer la coordination technique avec les autres équipes Platform ainsi qu’avec le fournisseur cloud. Garantir la qualité et la stabilité des environnements internes et hors production (MCO) pour l’ensemble des applications de la tribe Paiement . Collaborer avec les équipes internes pour résoudre les problématiques de configuration, de déploiement et de débogage des applications. Surveiller l’observabilité des applications, traiter les alertes et réaliser les premières analyses en cas d’incident. Optimiser les performances et la scalabilité des applications déployées dans le cloud. Veiller à la maîtrise et à l’optimisation des coûts d’infrastructure. Assurer l’évolution et la maintenance des processus de monitoring et d’observabilité des infrastructures et applications cloud.
Freelance

Mission freelance
Architecte réseaux

Publiée le
Ansible
Architecture
Azure

1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées. Vous possédez déjà une expérience concluante à un poste similaire. Vous êtes en mesure d’interagir avec des équipes hétérogènes & vous avez une vision 360° du système d'information. Vous disposez d'une expertise confirmée et d'un leadership qui permet de fédérer les équipes qui collaborent avec vous sur les programmes. Environnement International / Cloud Hybride: Cloud Privé, Azure, OVH/vmware, GCP, OCI / Wan International Environnement techniques Sécurité: Fortinet, Palo Alto Netskope LAN Cisco, Meraki, Huawei SDWAN WAN: Cisco ASR, Huawei, BGP Cloud: Azure, GCP, OCI Cloud Privé: Ovh (Vmware) Datacenter: Huawei DCS IaC: Terraform, Ansible
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
6011 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous