L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 488 résultats.
Mission freelance
Développeur BI (Rennes) H/F
LeHibou
Publiée le
DBT
Talend
3 mois
300-400 €
Rennes, Bretagne
Notre client dans le secteur Assurance recherche un/une Développeur BI H/F Description de la mission: Nous recherchons un(e) Freelance pour une mission d'expertise en développement BI. Dans le cadre d’un projet stratégique de refonte décisionnelle, notre client — un acteur majeur du secteur de l’assurance — recherche un Développeur BI pour renforcer son équipe Data. La mission s’inscrit dans un programme long terme visant à remplacer l’ancien Data Warehouse par une nouvelle modélisation DataVault , destinée à alimenter les reporting des actuaires, notamment sur les sujets de prévoyance. Le Développeur BI interviendra au sein de l’équipe Data et aura pour missions principales : Concevoir, développer et maintenir des Data Marts liés au produit sur lequel travaille Adèle. Participer activement à la mise en place et à l’évolution de la nouvelle architecture DataVault . Contribuer à l’alimentation des reporting métiers, en particulier pour les équipes d’actuaires. Collaborer avec les équipes internes (dont Othman à Rennes) et échanger avec les actuaires pour affiner les spécifications. Garantir la qualité, la performance et la fiabilité des pipelines de données.
Offre d'emploi
Statisticien - Data Scientist - Model Risk Management & Validation Indépendante des Modèles H/F
█ █ █ █ █ █ █
Publiée le
Le Relecq-Kerhuon, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Expertise DataViz et DataScience
Codezys
Publiée le
Azure
CI/CD
Data science
12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
Offre d'emploi
Développeur free RPG senior
CAPEST conseils
Publiée le
Développement
RPG (Report Program Generator)
3 mois
40k-55k €
100-500 €
France
Le site de notre client se trouve à 1 heure de Paris. 2 jours sur site et 3 jours en Télétravail. Avoir une voiture pourrait être appréciable. Bien que desservit par les transports en commun, le site de notre client se trouve en périphérie. Besoin Nous sommes à la recherche d'un développeur free RPG senior Nous avons besoin d'un développeur senior : Plus de 7 ans d'XP sur du développement Free RPG La connaissance de l'Assurance est un plus appréciable Contexte Remplacement d'un prestataire qui sort prochainement Les développements sont réalisés en Free RPG et en SQL Feature Team TP&Flux Santé composée d'un PO, 1 PPO, 2 BA, 1 tech leader RPG, 6 développeurs RPG et 3 développeurs JAVA Méthodologie Projet = Scrum TJM Max = 500€ Date de démarrage = Dès que possible
Mission freelance
Expert Marketplace / Product Data
Okara
Publiée le
Audit
E-commerce
Gestion des risques
3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Mission freelance
Expert TABLEAU SOFTWARE / TABLEAU CLOUD/ TABLEAU DESKTOP / TABLEAU PREP - Domaine Energie (H/F)
Octopus Group
Publiée le
Tableau Desktop
Tableau software
6 mois
470-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans le domaine de l'Energie, un Consultant expert Tableau Software OBJECTIFS : Accompagner le déploiement des solutions de data visualisation Tableau en mode « self-service » au sein du domaine « Reporting et Exploration de données » de notre client. Contribuer au maintien en conditions opérationnelles des solutions du domaine. Réaliser des développements de data visualisation. Contribuer à l’application de la stratégie de reporting avec les métiers et les équipes concernées de la Direction des Systèmes d’Information et du Numérique. MISSIONS : Support niveau 1 de l’équipe TABLEAU Accompagnement des référents métiers/PO et utilisateurs Dispense de formations TABLEAU Desktop et TABLEAU Prep niveau débutant et niveau avancé Contribue au maintien en condition opérationnelle de TABLEAU CLOUD et de ses bridges Gestion des comptes, accès, projets, groupes et droits TABLEAU Réalisation de visualisations simples à complexes Evangélisation Communication Contribue à l’animation des communautés Tableau Contribue au maintien des bonnes pratiques et performances
Mission freelance
Architecte Sécurité Cloud Azure & Active Directory (H/F)
TDS
Publiée le
Active Directory
Azure
Azure Synapse
1 an
550-750 €
Île-de-France, France
Dans le cadre de la transformation digitale mondiale de l’entreprise, vous rejoignez l’équipe Global Information Cyber Security. Vous intervenez au cœur des enjeux de sécurisation du Cloud, en particulier sur l’écosystème Azure et les plateformes Data / IA. Votre rôle est clé pour définir et garantir une architecture sécurisée, scalable et résiliente, en accompagnant les projets stratégiques du Groupe. Vos missions principales En tant qu’Architecte Sécurité Cloud, vous aurez pour responsabilités : D'agir en tant qu’expert en sécurité des données (Data Security Subject Matter Expert) sur l’architecture, la conception et la configuration des solutions Définir des architectures de données sécurisées, scalables et résilientes (Cloud & On-Premise) Réaliser des évaluations de sécurité des architectures et services Azure Contribuer à la définition des bonnes pratiques, de la gouvernance et des processus de sécurité Accompagner les entités métiers et IT dans le déploiement de solutions sécurisées Supporter les régions et Business Units dans la migration vers le Cloud public Évaluer les risques de sécurité et définir les mesures adaptées avant mise en production Analyser les demandes métiers/IT impactant la sécurité et proposer des plans de remédiation Définir les exigences de sécurité pour les projets IT, notamment : Intégration cloud Plateformes Data / IA Identités digitales Examiner les services Azure et formuler des exigences conformes aux standards IS&T Rédiger et déployer politiques, standards et guides de sécurité Piloter des projets de sécurité Cloud : Cadrage des besoins Sélection de solutions Implémentation Négociation fournisseurs Compétences techniques : Solide background technique : réseau, systèmes, bases de données, applications Bonne connaissance des environnements Cloud Azure Connaissance des services Data Azure appréciée : Azure SQL, Synapse, Data Lake, Power BI, etc. Connaissance des plateformes IA Azure appréciée : Azure OpenAI, Databricks, Azure ML, Cognitive Services, etc. Sécurité & gouvernance : Maîtrise des méthodologies d’analyse de risque (ISO 27005, EBIOS…) Connaissance des standards de sécurité de l’information Certifications ou formations Cloud (AZ-500, AZ-30x, SANS SEC545) et sécurité de l’information (ISO 27001, CISSP, CISM) sont appréciées
Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE
HAYS France
Publiée le
DBT
Semarchy
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
Mission freelance
POT9052 - Un Consultant AMOA Logistique / Support Applicatif SAP MM sur Gonfreville l’Orcher
Almatek
Publiée le
SAP
6 mois
Gonfreville, Normandie
Almatek recherche pour l'un de ses clients, un Consultant AMOA Logistique / Support Applicatif SAP MM sur Gonfreville l’Orcher. Compétences indispensables SAP ECC6 – Module MM (confirmé/senior) Support applicatif N1/N2, gestion ticketing, analyse incidents Connaissance des processus logistiques : achats, réception, stocks, magasin, expédition Expérience en MCO, RCA, documentation, formation utilisateurs Bon niveau en anglais Compétences appréciées WMS BEXT (ou WMS équivalent) Power BI (support datasets/refresh/accès) SharePoint (support documentaire) Connaissance aéronautique ou environnement industriel exigeant
Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé
WorldWide People
Publiée le
Business Analyst
6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Mission freelance
Contrôleur de gestion finance
STHREE SAS pour HUXLEY
Publiée le
8 mois
France
1. Pilotage financier & reporting Produire, analyser et fiabiliser les reportings mensuels , tableaux de bord, KPIs. Contribuer au budget , forecast , reprévisions, plans stratégiques. Analyser les écarts et proposer des actions correctives aux directions opérationnelles. 2. Suivi de la performance (finance d'entreprise / banque / assurance) Supporter le pilotage de la performance financière : marges, coûts, rentabilité, RWA (si banque), ratios techniques (si assurance). Optimiser les modèles de pilotage (P&L, coûts, performance commerciale). 3. Analyse stratégique & accompagnement aux décisions Réaliser analyses ad hoc : rentabilité produit, analyse de portefeuille, études de sensibilité. Préparer les supports de Comité de Direction (CODIR / COMEX). Contribuer à la préparation d'audits, levées de fonds, refontes de process. 4. Outils & optimisation des processus Améliorer les processus de reporting et les modèles Excel. Déployer et structurer les reportings sur outils : Power BI, Tableau, Business Objects, EPM. 5. Management fonctionnel (selon mission) Encadrer des équipes de contrôleurs ou d'analystes financiers. Structurer une fonction finance en croissance (cas FP&A ou scale‑ups).
Offre d'emploi
Business Analyst confirmé (H/F) - CDI
TOHTEM IT
Publiée le
40k-55k €
Montreuil, Île-de-France
TOHTEM recrute pour son client dans le secteur public un Business Analyst confirmé (H/F) - CDI pour une mission en régie sur un système d’information métier complexe . Vous interviendrez au cœur des processus métier et SI, en lien étroit avec la maîtrise d’ouvrage publique et la maîtrise d’œuvre. Missions principales : Compréhension métier et système d’information Assurer la prise de connaissance et la compréhension des processus métiers et des calendriers d’activité (campagnes, cycles, etc.). Analyser les domaines fonctionnels : spécifications , modules applicatifs , écrans , règles de gestion , traitements , tableaux de bord , extractions et données publiées vers les exploitants . Expression et formalisation des besoins Participer à l’expression des besoins fonctionnels avec la maîtrise d’ouvrage métiers et apporter des éclairages sur la complexité, l’exhaustivité et les impacts sur le système d’information . Proposer, si nécessaire, des solutions alternatives moins lourdes en impacts . Analyse et validation des spécifications technico‑fonctionnelles Lire, comprendre et valider les spécifications produites par la maîtrise d’œuvre. Vérifier la bonne prise en compte des exigences métier et l’ exhaustivité des impacts applicatifs (modélisations de données, règles de gestion, traitements, flux, habilitations, etc.). Animation et participation aux ateliers métier / SI Participer aux comités technico‑fonctionnels et ateliers de travail avec la maîtrise d’ouvrage et la maîtrise d’œuvre. Travailler en mode collaboratif et Agile lors des réunions d’instruction des besoins. Support recette et production Être référent fonctionnel pour l’équipe de recette fonctionnelle : expliquer les fonctionnalités, clarifier les points de blocage et aider à leur arbitrage. Soutenir l’ équipe de suivi de production en expertisant les incidents et en déterminant la remédiation (correction d’anomalie ou nouvelle demande fonctionnelle). Expression de besoins techniques et supports Participer à l’expression de besoins techniques lorsque nécessaire (interfaces, flux, contrats d’interfaces, etc.). Préparer et dispenser des formations et supports sur les nouvelles fonctionnalités pour les équipes utilisatrices, en amont des mises en recette. Livrables Rédiger et mettre à jour les spécifications fonctionnelles , comptes rendus d’ateliers , supports de présentation et autres documents de suivi.
Mission freelance
Directeur de projet
SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud
1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Mission freelance
Data Analytics Stream Leader SAP (F/H)
STHREE SAS pour HUXLEY
Publiée le
12 mois
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre du cadrage du chantier Data Analytics d'un programme SAP (ECC / S/4HANA), vous interviendrez en étroite collaboration avec le Chef de Projet métier en tant que Data Analytics Stream Leader . La langue du projet est l'anglais . Missions 1) Cadrage & Gouvernance Piloter l'animation des ateliers métier (organisation, facilitation, comptes rendus, restitution). Finaliser la liste des codes transactions spécifiques liés au reporting et des requêtes développées par les utilisateurs. Préparer et participer au Comité Projet hebdomadaire pour présenter l'avancement du stream Data Analytics. Proposer et maintenir un planning détaillé du stream (jalons, dépendances, risques, plans d'actions). 2) Remédiations / Rebuild SAP En collaboration avec l' équipe IS et les Domain Leaders métier : Prioriser les remédiations/rebuild des transactions et des requêtes. Mettre en place les indicateurs de suivi d'avancement (Design, Build, Tests). Définir la stratégie de tests et rédiger les scénarios de test (critères d'acceptation, jeux de données, traçabilité). 3) Transferts vers la Data Platform En collaboration avec la Data Governance , la Digital Factory et les équipes métier : Piloter la phase de réalisation (organisation, animation, restitution). Assurer la cohérence des flux, la qualité et la modélisation des données transférées. 4) Reporting & Accompagnement Supporter les équipes métier dans la reconstruction des rapports Power BI (datasets, modèles, DAX légère, gouvernance des espaces). Assurer la montée en maturité des pratiques (bonnes pratiques de modélisation, performance, sécurité). Livrables attendus Cartographie finalisée des transactions & requêtes impactées. Planning détaillé du stream et reporting d'avancement (KPI/indicateurs). Stratégie de test + scénarios et résultats de tests. Plan de remédiation/rebuild priorisé. Comptes rendus d'ateliers et restitutions au Comité Projet. Rapports Power BI reconstruits et validés par le métier. Profil recherché Compétences techniques Data : connaissance du traitement de la donnée et de son utilisation , de la collecte à la modélisation . SAP : maîtrise de SAP ECC ou S/4HANA . Outils : Pack Office (Excel/PowerPoint/Visio), Power BI ; SQL apprécié. Tests & qualité : conception de stratégies de test, scénarios, critères d'acceptation, suivi des défauts. Connaissances métier Finance , Supply Chain , Opérations (processus, indicateurs, particularités de reporting). Méthodologie & Soft skills Pilotage de workshops , priorisation et planification . Capacité d'analyse de l'existant et définition de stratégie data . Excellentes capacités de communication et de restitution (français/anglais). Leadership transversal, sens de la structure et de la rigueur . Langues Anglais courant (écrit et oral) - langue de travail du projet. Serait un plus Expérience sur projets de conversion / montée de version / déploiement SAP (ECC → S/4HANA, rollouts). Maîtrise avancée de SQL et/ou optimisation de modèles Power BI.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3488 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois