Trouvez votre prochaine offre d’emploi ou de mission freelance Data management
 
            Offre d'emploi
            
        Proxy Product Owner (H/F)
      
 CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Proxy Product Owner (H/F) 🚀 Vous interviendrez pour un client international dans le domaine pharmaceutique, leur mission est de favoriser le progrès thérapeutique au service des patients. Il emploie plus de 21 400 personnes dans le monde dont 4 500 en France. Afin de servir la stratégie de digitalisation de la direction R&D, de nouvelles solutions LIMS et Data sont en train d’être mises en place au sein du Système d’Information de la Recherche. La direction « Business Solutions & Services » de la DDSI Servier recherche ainsi un Proxy Product Owner (PPO) capable de s’insérer dans une équipe SCRUM existante. Vous devrez notamment aider le PO à tester les US développées en collaboration avec les ingénieurs data/système ainsi qu’avec le métier (data management et experts opérationnels) dans le cadre des attentes imposées par le département d’assurance qualité. 🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Analyse des US du backlog ainsi que celles embarquées dans les sprints. Travail de compréhension et de recommandations en amont en lien auprès des acteurs métiers (experts en pharmacologie et toxicologie, histologie, pathologie, biochimie) afin de s’assurer de leur « testabilité » 🔸 Écriture des procédures de tests en amont des sprints 🔸 Assistance dans la progression du développement des US afin d’anticiper la période des tests en récoltant le plus d’éléments de preuves 🔸 Test des US 🔸 Travail avec le département assurance qualité en collaboration avec le Scrum Master pour s’assurer du respect des procédures 🔸 Suivi de la mise en prod 🔸 Formalisation des sprints, produire les graphiques de performance des sprints
            Offre d'emploi
            
        BUSINESS ANALYST DATA CONFIRME - 9 ans d'expérience dont 3min en tant que BA IT
      
 Merci d’envoyer vos propositions en précisant votre méthodologie d’intervention et vos références sur des projets similaires. Implémentation d'une Application ESG (Environnement, Social et Gouvernance). Contexte et Objectifs Nous recherchons un prestataire pour implémenter un nouveau composant technique, une application de collecte et de distribution des données ESG pour la Corporate and Investment Banking (CIB), ainsi que son interface graphique. En parallèle, il s'agira d'assurer la maintenance des applications de gestion du Green Weighting Factor. Le reporting ESG présente les données des entreprises sur les aspects environnementaux, sociaux et de gouvernance. L’objectif de ce reporting est d’assurer la transparence des entreprises sur ces aspects afin d'évaluer la gestion des risques et plus largement la responsabilité des entreprises vis-à-vis de l’environnement et de leurs parties prenantes (salariés, partenaires, sous-traitants, clients, investisseurs...). Pour ce faire, un référentiel comprenant l'ensemble des données ESG sera mis en place pour répondre aux besoins des différents métiers. Le premier cas d'usage de ce référentiel sera le Green Weighting Factor, un indicateur clé pour piloter la trajectoire climat de la CIB et un facteur différenciant par rapport à la concurrence. Descriptif du Poste :Missions : Intégré au sein de l'équipe ***** - Data Management & BI - ESG & GWF, vous travaillerez à la gestion des données ESG, notamment leur collecte, leur gestion et leur distribution afin de répondre aux besoins croissants de divers cas d'usage. Vos principales missions seront : Interagir avec une grande diversité d'interlocuteurs ITet préserver un climat serein Interview des métiers être capable de retranscrire leur besoins Comprendre le DATA Management Comprendre les sujets techniques DATA Etre en capacité de discuter avec des developpeurs Big Data et Business Analysts Power BI, Etre en capacité de récupérer de la donnée ou Comprendre et challenger les besoins actuels Anticiper les changements nécessaires et leurs conséquences ; Coordonner l'équipe de développement ; Respecter le cadre des projets (coût, délai, performance). Nous appliquons une méthodologie de travail agile, et vous serez intégré à notre communauté de business analysts. Profil et Compétences Requises De formation supérieure en informatique, vous justifiez d'au moins 9 ans d’expérience en tant que Business Analyst et d'une expérience significative en Corporate and Investment Banking (CIB). Compétences techniques requises : Excel ; Jira ; Confluence ; SQL ; Méthodologies agiles (Scrum, Kanban). Postman, Swagger seraient un grand plus Compétences comportementales : Proactif et force de proposition ; Excellent esprit de synthèse ; Aisance à l'écrit et à l'oral. Un niveau d’anglais C1 est requis. Conditions Poste basé à Paris ; 2 jours de télétravail par semaine ; Environnement de travail hybride, inclusif et collaboratif. Merci d’envoyer vos propositions en précisant votre méthodologie d’intervention et vos références sur des projets similaires.
 
            Mission freelance
            
        Expert Etudes Salesforce
      
 CONTEXTE Mission chez Solution Salesforce MISSIONS - Le patrimoine Salesforce de est géré au sein de la Factory Salesforce qui comprend 4 entités : Intervenant sur les perimètres Community, plan de travail utilisateur, Gestion de personne, vision 360, découverte client, gestion des demandes (service cloud), Gestion commerciale (sales cloud), Analytics, gestion des droits, ... * La Factory Salesforce Chartres, * La Factory Salesforce Paris, Cette entité porte également la structure transverse « Design Authority », Product Owner, Data Management - La Factory Salesforce Niort, Cette entité porte également l’équipe transverse en charge du Maintien en Condition Opérationnelle (MCO) - La Factory Salesforce , Cette entité porte également la structure transverse « System Team » MISSIONS : Concepteur/développeur Salesforce - et SCRUM (double rôle) pour l'une de nos 3 équipes Agile Avoir minimum de 5 ans d'expérience sur Salesforce. Connaissance technique : - APEX - LWC - GIT/Copado Expérience aguerrit dans l'agilité à l'échelle et grand compte (domaine fonctionnel
            Mission freelance
            
        CONSULTANT MOA / DATA QUALITY
      
 Contexte de la mission Dans le cadre d’un programme de mise en conformité réglementaire et d’amélioration de la qualité des données, la mission vise à renforcer la fiabilité du référentiel client et à assurer sa cohérence avec les autres référentiels du groupe. Objectifs principaux Identifier et formaliser les améliorations techniques et opérationnelles à mettre en œuvre pour fiabiliser le référentiel. Définir et piloter les actions fonctionnelles (MOA) en coordination avec les équipes IT et métiers. Intégrer et suivre les indicateurs de qualité produits par les équipes Data et les programmes de gouvernance. Exploiter les outils d’analyse et de reporting (bases de données, Python, Excel, Business Object, Tableau) pour produire les indicateurs de pilotage de la qualité. Participer aux instances de gouvernance : préparation des réunions, rédaction de comptes rendus, synthèses et supports. Produire la documentation fonctionnelle et procédurale (spécifications, procédures, guides utilisateurs). Profil recherché Consultant MOA / Data Quality disposant d’une solide expérience en gestion de référentiels et gouvernance de données. Bonne connaissance des processus de qualité et d’intégrité des données dans un environnement réglementaire (type Bâle III, conformité groupe, etc.). Maîtrise des outils de pilotage et d’analyse de données : SQL, Python, Excel, Business Object, Tableau ou équivalents. Capacité à interagir avec des interlocuteurs variés (IT, métiers, data management) et à formaliser des besoins fonctionnels complexes . Excellentes compétences rédactionnelles (spécifications, procédures, synthèses de réunions). Esprit analytique, rigueur, autonomie et sens de la coordination. ASAP ANGLAIS
 
            Mission freelance
            
        Ingénieur de production - Data / GCP
      
 Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
            Mission freelance
            
        DIGITAL WORKPLACE ENGINEER
      
 Rattaché au département Group IT Infra – DWS/Workplace , le Digital Workplace Engineer aura pour mission d’assurer un environnement utilisateur moderne, sécurisé et performant , autour des technologies Microsoft et des solutions de cybersécurité. Il interviendra sur la conception, le déploiement, et le support de la plateforme digitale de travail , garantissant la cohérence entre identité, postes de travail, virtualisation et collaboration . Identity & Access Management : AD, Azure AD, MFA, Conditional Access, GPO, Intune Policies, Autopatch Messaging & Collaboration : Administration Exchange On-Prem / Online, Proofpoint, Office 365 (SharePoint, Teams, OneDrive) Endpoint Management & Mobilité : SCCM, Intune, MDM/MAM, Packaging applicatif, Trend Micro, Azure Update Manager Virtualisation & Profils utilisateurs : Mise en place d’AVD et gestion des profils via FSLogix Sécurité & Conformité : Application des bonnes pratiques, gestion des politiques Intune et conformité Zero Trust Documentation & Support N3/N4 sur l’ensemble du périmètre Workplace
 
            Mission freelance
            
        Data Engineer (PySpark)
      
 CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.
            Mission freelance
            
        Ingénieur Data - Nantes
      
 Métier et Fonction Data Management Ingénieur Data Spécialités technologiques BI (Business Intelligence) Type de prestation Assistance Technique avec facturation au taux journalier Compétences requises Technologies et Outils : Azure Data Factory, Power BI Soft skills : Autonomie Langues : Anglais Description de la prestation Intégration dans l'équipe BI Entreprise pour répondre aux besoins des métiers tels que Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux. La mission consiste à moderniser l'architecture décisionnelle en migrant les packages SSIS vers Azure Data Factory (ADF) et à développer des pipelines cloud. Objectifs principaux : Migrer les traitements SSIS vers ADF en assurant performance, robustesse et conformité. Concevoir et développer des pipelines ADF pour la collecte, l’intégration dans l’entrepôt SQL Managed Instance ou Snowflake. Créer et maintenir des Data Flows ADF (nettoyage, enrichment, transformation). Mettre en place et gérer des triggers conditionnels pour orchestrer des traitements complexes. Optimiser les coûts et performances des modèles BI (Power BI, modèles sémantiques, DAX). documenter les développements et assurer la maintenance opérationnelle (MCO) de l'existant.
 
            Mission freelance
            
        Product Owner Data
      
 En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.
 
            Mission freelance
            
        Recetteur/Testeur SIRH Expérimenté
      
 CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Tests, recette et Qualité logicielle,Testeur Spécialités technologiques : Poste de travail, Workplace,Outils de Supervision,API,Data management Système d'exploitation Compétences Technologies et Outils Excel Easyvista Access Unix Oracle SQL MISSIONS Le prestataire interviendra en appui du Responsable SIRH et en collaboration étroite avec la Direction RH, en apportant une expertise technique et fonctionnelle sur HR Access. Son rôle consistera à accompagner et challenger les demandes des équipes métiers ainsi que celles de l’éditeur. Missions principales 1. Expertise fonctionnelle et accompagnement de la Direction RH - Apporter une analyse critique et des conseils sur les demandes métiers et les propositions de l’éditeur ; - Rédiger les spécifications fonctionnelles détaillées ; - Concevoir les stratégies et cahiers de recette, à la fois fonctionnels et techniques ; - Exécuter les phases de recette DSI et participer aux recettes métiers ; - Contribuer à la rédaction et à la mise à jour de la documentation détaillée et des modes opératoires utilisateurs. 2. Interfaces et intégration - Comprendre le fonctionnement des interfaces existantes afin de pouvoir contribuer à leur débogage ou à leur évolution. 3. Paramétrage et exploitation - Réaliser le paramétrage des queries ; - Participer au suivi des livraisons et des mises en production de l’éditeur ; - Assurer le suivi des traitements en exploitation, et analyser les anomalies ou rejets identifiés. 4. Support utilisateur - Contribuer à l’assistance aux utilisateurs et au traitement des tickets via l’outil EasyVista.
            Mission freelance
            
        Architecte Admin Cloud 
      
 Contexte : Notre client a fait le choix stratégique de migrer l’ensemble de son écosystème vers Microsoft Azure. L’objectif est aujourd’hui de structurer et industrialiser l’infrastructure cloud, tout en renforçant la gouvernance FinOps et les bonnes pratiques de sécurité et de data management. Le poste se situe à l’intersection entre Cloud / Infrastructure (70%) et Data (30%). Missions principales : Administration et optimisation de l’environnement Azure Gestion des infrastructures cloud et des réseaux Supervision des clusters Kubernetes (6 clusters) Mise en œuvre de bonnes pratiques de sécurité et de gestion des accès Gestion et monitoring des API, debug et analyse d’incidents niveau 3 Industrialisation & automatisation Mise en place et industrialisation de l’Infrastructure as Code Cadrage global de l’environnement Azure Déploiement d’une démarche FinOps (actuellement peu structurée) Data & monitoring Optimisation du système de régulation des bus (en partenariat avec INEO) Gestion et reroutage des flux de données en temps réel Suivi et amélioration des KPI de performance Utilisation d’ADF et Databricks sur la plateforme Data Administration des droits et supervision des environnements BI / databases Stack technique : Azure – Kubernetes – Terraform / Bicep – Databricks – Azure Data Factory – Power BI – React / Angular – CI/CD – API Management
 
            Offre d'emploi
            
        Business Analyste
      
 Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet AVE de refonte de l'application Amect de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers et définition des User Stories : Collaborer avec les équipes métiers et le Data Office pour comprendre les besoins en matière de données, d'analyses, et de reporting, et les traduire en user stories claires et compréhensibles pour les équipes de développement. Définition des user journeys pour chaque cas d'usage métier, en s'assurant que les expériences utilisateurs soient optimisées et que les solutions proposées apportent une réelle valeur ajoutée. Travaille pour le Product Owner pour prioriser les user stories dans le backlog, en fonction de l'impact métier, de la complexité technique et des objectifs de chaque projet et du programme dans sa globalité. Interface entre les équipes métiers / Data Office et les équipes IT : Participation en tant qu'intermédiaire entre les équipes métiers et les équipes IT, en s'assurant que les besoins métiers sont bien compris et traduits en solutions techniques adéquates. Participation aux cérémonies agiles (daily stand-ups, sprint planning, sprint reviews, rétrospectives) pour assurer la continuité et la bonne compréhension des exigences tout au long du développement de la solution. Accompagnement des équipes IT pour s'assurer que les solutions livrées répondent aux critères d'acceptation des user stories et aux objectifs métier. Suivi des sprints et validation des incréments : Suivi des sprints et l'avancement des incréments de produit, en veillant à ce que chaque fonctionnalité développée soit alignée avec les attentes des utilisateurs et des parties prenantes. Teste et validation des incréments produits à chaque fin de sprint, en s'assurant que les critères d'acceptation définis dans les user stories sont respectées et en recueillant les retours des utilisateurs. Proposition pour des améliorations et des ajustements en continu en fonction des retours d'expérience, des évolutions des besoins, et des nouvelles priorités métier. Documentation et gestion du backlog : Suivi de la création et la mise à jour en continu des user stories et des acceptance criteria dans le backlog, en collaboration avec le Product Owner et les parties prenantes métiers et Data Office. Documentation des processus métiers, les user journeys et les flux de données associés, afin d'assurer une compréhension commune et de faciliter les développements futurs.
            Offre d'emploi
            
        Architecte Solutions Cloud AWS – Expertise Data & Architecture Résiliente
      
 Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, spécialisé dans l’accompagnement des transformations technologiques et organisationnelles. Nous intervenons auprès de grands comptes dans les domaines de la finance, de l’IT, des télécommunications et de l’énergie , sur des projets à fort impact stratégique. Nos expertises couvrent le Cloud, le DevOps, la Data, la sécurité , et la conduite du changement . Dans le cadre d’un projet de modernisation d’infrastructures Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud AWS expérimenté(e) . Vous interviendrez sur la conception, l’implémentation et la gouvernance de solutions Cloud, tout en accompagnant les équipes internes dans l’adoption des bonnes pratiques AWS et Data Management. Votre rôle combinera expertise technique, accompagnement au changement et acculturation Cloud auprès d’équipes d’architectes et de développement. Vos missions principales Concevoir et faire évoluer des architectures Cloud AWS sécurisées, performantes et évolutives. Participer à la conception de solutions hybrides permettant la réversibilité et la consommation de données entre cloud et on-premise. Déployer et accompagner des solutions Data Management sur AWS (Snowflake, Starburst, Minio, Apache Spark). Fournir expertise et conseil sur les bonnes pratiques AWS et l’optimisation des investissements cloud. Réaliser et présenter les dossiers d’architecture auprès des instances de gouvernance. Acculturer et former les équipes internes sur les services et principes fondamentaux d’AWS. Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente , la culture DevOps et les méthodes Agile
 
            Offre d'emploi
            
        Data Analyst Référentiel (CDD) H/F
      
 Lieu : Finistère (29) Salaire : 30 à 32 K€ annuel brut (sur 13 mois) Rythme : 1 jour de télétravail par semaine à l'issue d'une période d'intégration Nous recherchons pour notre client, acteur industriel, un Data Analyste Référentiel H/F pour un contrat de 6 mois en CDD. Cette mission s'inscrit dans le cadre d’un renforcement des équipes SI sur des sujets stratégiques de gestion et de fiabilisation des données statiques et dynamiques de la base article (+10 000 articles référencés). VOS MISSIONS : Au sein d’une équipe à taille humaine et rattaché au pôle Systèmes d’Information et à l’équipe projet ERP (pour la partie Build), et dans le cadre d’un projet de déploiement d’un ERP sur 8 sociétés et de l’intégration de 8 bases articles hétérogènes dans le référentiel core model vos missions consistent à : Compiler et consolider les données articles (statiques et dynamiques) dans un objectif de qualité et de fiabilité. Contrôler la qualité des données et assurer leur cohérence dans les outils de gestion avant intégration dans le référentiel Core Model. Transmettre les données consolidées à la Responsable Applicatif du référentiel Core Model pour intégration et contrôle (travail en binôme). Gérer et enrichir les référentiels de données articles via des requêtes SQL : création ; mise en gamme ; référencement. . Réaliser des extractions, traitements et manipulations de bases de données via SQL et Excel. Proposer des axes d’amélioration dans les méthodes de collecte, de traitement, de contrôle et d’intégration de la donnée. Run – Dans le cadre de l’interopérabilité du référentiel Article Core Model avec différents ERP Travailler en interaction avec les équipes métiers et IT pour optimiser l’exploitation et la robustesse de la donnée statique et dynamique. En lien avec les équipes Exploitation et Talend, mettre en place des contrôles pour s’assurer des mises à jour et de la fiabilité des données Environnement Technique : SQL, Excel (niveau avancé), outils MDM, SI internes.
 
            Mission freelance
            
        PMO automatisation reporting
      
 Contexte & Objectifs de la mission Le consultant rejoindra une équipe transverse de trois personnes , en charge : du pilotage du plan de moyens (en euros et en jours-hommes), du reporting et de la comitologie , ainsi que des processus et de la qualité . La mission a pour objectif d’ industrialiser et d’automatiser les tableaux de bord actuellement gérés sous Excel, dans une logique de performance et de fiabilité des données . Missions principales Industrialiser les tableaux de bord d’indicateurs (financiers, DSI, DORA). Gérer le processus de changements : validation et animation du CAB. Assurer la gestion budgétaire et des achats IT (licences, maintenance, BDC, engagements). Effectuer le suivi des comptes rendus d’activité (outil Orchestra) et la saisie annuelle de la structure. Être le référent DAF : participation aux clôtures mensuelles et élaboration de prévisionnels. Produire le reporting DSI (indicateurs de performance et alertes). Être l’interlocuteur référent des auditeurs internes et externes. Rédiger les processus associés et modes opératoires. Animer le COMOP DSI et contribuer à la documentation du reporting. Livrables attendus Documentation complète sur le reporting et les processus associés. Tableaux de bord mensuels et trimestriels automatisés. Comptes rendus hebdomadaires du COMOP DSI. Documentation des processus de gestion du changement. Compétences attendues Indispensables Expérience confirmée dans l’ industrialisation du reporting . Compétences en gestion budgétaire et achats IT (licences, maintenance, BDC, engagements). Maîtrise avancée d’Excel et des outils de data management . Animation de réunions et bonne connaissance des mécanismes de gestion de projet . Esprit d’analyse , rigueur et sens de l’organisation . Esprit d’équipe et posture de facilitateur . Appréciées Bonne compréhension des principes comptables . Connaissance du secteur assurantiel .
 
            Mission freelance
            
        Consultant SAP PDM/GTS
      
 Contexte Nous recherchons un Consultant SAP GTS/PDM expérimenté pour rejoindre une équipe projet et accompagner le déploiement international des modules Global Trade Services et Product Data Management . Vous aurez un rôle clé dans la mise en œuvre des solutions liées à la conformité douanière et réglementaire ainsi qu’à la gestion des données produit . Déplacement en Europe à prévoir sur la durée de la mission. Missions Contribuer au design et à l’implémentation des modules SAP GTS et PDM. Paramétrer et activer les fonctionnalités SAP liées aux flux import/export et données produit . Analyser les besoins réglementaires, de conformité et de gestion de données. Rédiger les spécifications fonctionnelles et techniques . Encadrer les tests, recettes et déploiements . Assurer l’ accompagnement au changement et la documentation des process.
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.