L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 563 résultats.
Mission freelance
Data Engineer (F/H)
Publiée le
1 an
380-420 €
Erstein, Grand Est
Télétravail partiel
Freelance OU Portage salarial (TJM : 380-420) - Erstein - Expérience de 3 ans minimum (hors stages / alternance) Envie d’intervenir sur un projet de migration et d’optimisation des flux de données dans le secteur industriel ? Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients dans le secteur industriel. Votre rôle : Vous accompagnerez l’équipe dans la conception, la mise en place et l’optimisation des flux de données et du Datawarehouse. - Développer et maintenir les modèles de données : vous assurez l’alimentation de la base pivot et participez à la migration vers SQL Server 2025, en veillant à la performance et à la fiabilité des données. Vous contribuez également à l’intégration de la recherche vectorielle dans les applications existantes - Mettre en place et optimiser les flux de données : vous concevez et développez des pipelines ETL (SSIS), tout en évaluant la transition vers des solutions Open Source (Polars / Pandas sous Airflow) pour moderniser et automatiser les flux - Accompagner la conception et l’architecture des solutions Data : vous rédigez des cahiers des charges, réalisez des études de faisabilité et conseillez les métiers sur le choix des données pivots, les formats et les modèles adaptés, tout en garantissant la qualité et la cohérence des données - Contribuer à l’exploitation du Datawarehouse : vous intervenez sur la base Oracle et développez des scripts Bash pour automatiser les tâches et faciliter la maintenance des données Situation géographique : Erstein (67) – Facile d’accès en transport en commun
Offre d'emploi
Responsable Activité « Mainframe Cluster CXI
Publiée le
Data management
1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Mission freelance
Customer Data Modeler
Publiée le
Big Data
6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Mission freelance
CONSULTANT AMOA COLLECTE SOLVENCY 2- DELIVERY PRUDENTIEL
Publiée le
Big Data
SAS
SQL
18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Expert Python / Innovation & Services Cloud
Publiée le
Architecture
CRM
DevSecOps
1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Offre d'emploi
Data Product Manager
Publiée le
Data management
1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Offre premium
Mission freelance
Référent Data
Publiée le
Architecture
Data governance
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Mission freelance
Lead Tech / Technical Architect Salesforce – Field Service & Service Cloud
Publiée le
Apex
Service Cloud
Talend
1 an
550-590 €
Île-de-France, France
Télétravail partiel
Le client évolue dans le secteur des télécoms et utilise Salesforce pour piloter la planification et le suivi des interventions terrain (installation et dépannage de box fibre). Au sein de la DSI, vous interviendrez comme référent technique Salesforce sur la solution I360 basée sur Field Service et Service Cloud . Vos principales missions : Concevoir et implémenter des solutions Salesforce adaptées au métier Encadrer et accompagner les développeurs Salesforce Participer aux ateliers techniques et fonctionnels Assurer la qualité technique, la performance et la cohérence globale du SI Réaliser les développements complexes (Apex, LWC, Web Services, Tableau CRM) Compétences requises Salesforce Expert Field Service – confirmé Service Cloud – confirmé Apex / LWC – expert Talend – confirmé Tableau CRM – confirmé Conception & design de solutions Salesforce Encadrement technique et gestion de projet
Mission freelance
Data / AI Engineer
Publiée le
Databricks
Git
Python
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Mission freelance
Client Master Data Lead F/H
Publiée le
API
Data governance
Data management
12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte : Dans le cadre de la transformation Data du Groupe , pilotée par le Group Data Office, un référentiel Client Groupe a été mis en place afin de garantir la cohérence, l’interopérabilité et la fiabilité des données clients à l’échelle de l’ensemble des entités. Dans un contexte de forte croissance via des opérations de fusions-acquisitions , chaque entité dispose aujourd’hui de ses propres systèmes d’information et bases clients. L’enjeu stratégique est désormais de déployer et intégrer ce référentiel Client Groupe sur l’ensemble des entités afin de soutenir les processus transverses et les usages analytiques. Nous recherchons un(e) Client Master Data Lead pour piloter cette démarche de déploiement et d’intégration. Missions En tant que Client Master Data Lead , vous serez en charge de : Définir et piloter la stratégie de déploiement du référentiel Client au sein des différentes entités du Groupe Assurer le rôle de coordinateur central entre le Group Data Office, les équipes IT et les équipes métiers Garantir l’alignement sur les modèles de données clients , les règles de gouvernance et les interfaces techniques Piloter la planification, les priorités et la communication auprès des parties prenantes Mettre en place un reporting structuré (KPI, tableaux de bord, suivi des risques) à destination de la Direction Data Groupe et du Comité Exécutif Responsabilités principales1. Stratégie & Gouvernance Définir la roadmap de déploiement (par entité, par domaine, par lots) Contribuer à la définition du Target Operating Model de la gestion des données clients Identifier les risques, dépendances et enjeux de conduite du changement Mettre en place les indicateurs de suivi et de performance du programme 2. Coordination & Pilotage Être le point de contact unique entre l’équipe référentiel et les équipes locales IT/métiers Coordonner les projets d’intégration (mapping, migration, synchronisation des données) Animer les comités de pilotage et groupes de travail Assurer le suivi des décisions, actions et livrables 3. Conduite du changement Promouvoir l’adoption et la valeur du référentiel Client Accompagner les métiers dans l’adaptation de leurs processus Contribuer aux supports de formation, communication et reporting Localisation 📍 Paris – La Défense (hybride, 2 jours de télétravail par semaine) Rattachement Rattaché(e) au Head of Group Data Office , avec des interactions fortes avec les équipes IT, Data Governance, Data Stewards et Architecture.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- Contrat de prestation ESN
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
4563 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois