Trouvez votre prochaine offre d’emploi ou de mission freelance Data governance à Paris

Votre recherche renvoie 14 résultats.
Freelance
CDI

Offre d'emploi
Data Manager / Coordinateur Data Governance

Publiée le
Data governance

1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Data Project Manager

Publiée le
Data governance
Data management

1 an
40k-45k €
400-800 €
Paris, France
Télétravail partiel
Description de la mission La mission est au sein du Data Office d'une organisation majeure. Elle a pour objectif de cadrer le stream Data de la plateforme Marketing pour le plan stratégique d'accélération digitale : Besoins en données, modèle de données. Règles d'exposition, de stockage des données. Adhérence avec les uses cases Métiers et les autres chantiers de l'accélération digitale. Planning de construction du stream Data. Organisation du stream data.
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance

Mission freelance
Expert MlOps Data IA / LLM(Secteur Bancaire)

Publiée le
API Platform
Azure Data Factory
Azure Kubernetes Service (AKS)

12 mois
550-600 €
Paris, France
Le Lab Data connaît une forte accélération et un passage à l’échelle. Les équipes construisent et opèrent un Data Mesh , un Datalake , ainsi qu’une plateforme complète permettant de rendre accessibles les données, les analytics et les produits IA. Le périmètre inclut : Conception du magasin Workspace pour accès aux données Connectivité avancée du Data Lab Mise en production de nombreux agents et modèles (≈60) Montée en puissance sur l’ observabilité , le Go-to-Market , l’orchestration, et l’optimisation de la vitesse de livraison L’objectif : accélérer , scaler , et professionnaliser la chaîne de valeur Data & IA pour soutenir une croissance forte du nombre d’utilisateurs. Mission principale Rejoindre le Lab Data pour : Accélérer l’évolution du Data Mesh et du Datalake Renforcer l’observabilité, la qualité, et la fiabilité des pipelines Structurer et opérer la plateforme agentique (LLM, agents, graph, orchestration) Améliorer la vitesse et la maturité en production (MLOps & LLMOps) Accompagner l’onboarding rapide des nouveaux utilisateurs et experts Contribuer au Go-to-Market et à la montée en maturité du produit Participer au développement interne des outils d’automatisation et d’orchestration Responsabilités clésData Engineering & Analytics Développer et opérer des pipelines Spark / SQL performants Contribuer au Data Mesh, Datalake, et aux connecteurs Workspace Gestion de la consommation via API, Spark, Elastic Search Déploiement et optimisation Power BI & DataViz avancée Participer à la construction du catalogue de données / agents Orchestration & Infrastructure Concevoir et opérer les workflows sur Kubernetes Infrastructure as Code (Terraform – un plus) Observabilité appliquée au Data & IA (logs, metrics, traces) Contribution à la refonte de n8n interne Gestion DAG & orchestrateurs internes / agentiques ML Ops & LLM Ops Gestion du cycle de vie ML & LLM Mise en production d’agents LLM (60+ agents en prod) Context engineering : gestion dynamique du contexte partagé, hiérarchie, rationalisation Deep Search, Knowledge Graph, Neo Forging Monitoring, optimisation et sécurité des modèles Plateforme agentique : supervision, versioning, fiabilité Développement Applicatif API robustes (Python / FastAPI) Application front (React – un plus, avec sensibilité design) Automatisation et intégration dans la plateforme
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Freelance

Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)

Publiée le
Amazon S3
Apache Kafka
API

12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Freelance

Mission freelance
Product Owner Technique – Data Platform

Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Freelance

Mission freelance
Architecte d’Entreprise / Urbaniste SI Senior

Publiée le
API Platform
Architecture
AWS Cloud

12 mois
650-800 €
Paris, France
Télétravail partiel
Au sein de la DSI, vous rejoignez la Direction de l’Architecture et de l’Urbanisme pour accompagner la transformation du système d’information et garantir sa cohérence avec les enjeux métiers et la stratégie d’entreprise. Vous interviendrez sur des projets structurants, de l’urbanisation du SI à la conception de solutions cibles en passant par la gouvernance des architectures. ⚙️ Missions principales 1. Gouvernance et urbanisation du SI Définir et maintenir la cartographie du système d’information (métier, applicative, données, technique). Assurer la cohérence et la rationalisation du portefeuille applicatif . Identifier les axes de simplification, de mutualisation et de modernisation du SI. Contribuer à la feuille de route d’évolution de l’architecture d’entreprise . 2. Architecture d’entreprise et de solutions Concevoir des architectures cibles alignées avec les besoins métiers et les standards techniques. Rédiger les documents d’architecture (Dossier d’Architecture, Dossier d’Urbanisation, DAT, DEX, etc.) . Participer à la conception fonctionnelle et technique des solutions (intégration, données, sécurité, performance). Accompagner les équipes projets dans le choix des solutions et des trajectoires d’évolution . 3. Conseil et accompagnement Conseiller les directions métiers et les chefs de projets sur les orientations technologiques et d’urbanisation . Animer les comités d’architecture , les ateliers de conception et de cadrage. Diffuser les bonnes pratiques d’architecture et contribuer à la montée en compétence des équipes. 4. Pilotage et innovation Identifier les technologies émergentes et en évaluer la pertinence pour l’entreprise. Contribuer aux schémas directeurs , à la stratégie cloud, data et API . Participer aux études d’impacts et d’opportunités pour de nouveaux projets SI. 🧠 Compétences techniques et fonctionnelles Architecture / Urbanisation TOGAF, ArchiMate, Zachman ou équivalents Outils de modélisation : MEGA HOPEX, ARIS, Enterprise Architect, etc. Maîtrise des architectures orientées services, API, microservices, data-centric Bonne compréhension des architectures cloud (Azure, AWS, GCP) Gouvernance des données, interopérabilité, sécurité SI Environnements techniques Connaissances générales en infrastructure (réseaux, middleware, cloud, sécurité) Bonne maîtrise des Systèmes d’Information complexes et intégrés (ERP, CRM, SIG, GED, etc.) Compétences fonctionnelles Capacité à dialoguer avec les métiers : finance, RH, logistique, production, relation client, etc. Capacité d’analyse et de synthèse, esprit de gouvernance et d’alignement stratégique
Freelance

Mission freelance
Security Solutions Operations Lead

Publiée le
IAM
JIRA
Microsoft Purview

3 ans
400-800 €
Paris, France
Télétravail partiel
Nous recherchons pour notre client un Security Solutions Operations Lead spécialisé dans l’Identity & Data Governance, basé à Paris. 6 mois de prestation ensuite embauche Ce n’est pas un poste d’architecture ou de gouvernance pure, mais un rôle opérationnel : maintenir, gérer, supporter et faire évoluer les solutions d’identités (IAM / IGA) déjà en place. Vos taches : Gérer au quotidien les solutions d’identité (Identity Governance, Identity Administration, Identity Analytics). Mettre à jour, maintenir et documenter les procédures techniques Installer les mises à jour logicielles / patchs Travailler avec l’équipe Infra (notamment LDAP / AD / Entra). Suivre les prestataires / intégrateurs (Sailpoint, Microsoft Purview) Surveiller les performances et renforcer la sécurité Être d’astreinte sur certains systèmes critiques. Assurer le support utilisateurs + résoudre les incidents
Freelance

Mission freelance
Head of Data

Publiée le
Gouvernance
Management
Pilotage

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
CDI

Offre d'emploi
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française

Publiée le
AI
Apache Airflow
Data analysis

Paris, France
Télétravail partiel
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française Un de nos importants clients recherche un Data Platform Product Manager dans le cadre d'un CDI à Paris. Le Data Platform Product Manager a pour mission de structurer et piloter le portefeuille de produits de la plateforme data. Il développe l'équipe et le modèle opérationnel permettant d'orchestrer l'intake, la priorisation et le delivery. Il assure le suivi opérationnel, budgétaire et méthodologique du portefeuille en garantissant l’alignement avec le Data Office Management, et en maximisant l’adoption et la valeur pour le Data Office et la Maison. Véritable partenaire des leaders techniques de la Data Platform, des autres pôles du Data Office et des différentes filiales, vous alignez vision, roadmaps, budgets, SLO et accompagnez les Platform Product Owners dans la mise en œuvre des méthodologies et des outils pour atteindre leurs objectifs dans le respect des délais et des exigences de qualité de la Maison. Vous jouez un rôle clé dans la stratégie produit, la gestion des risques, et la diffusion d’une culture produit au sein de la Data Platform. Principales activités : Engagement opérationnel : Pilote le portefeuille de produits Data Platform en collaboration avec le Data Office Management et en appui aux responsables de scope. Consolide le reporting et tient le release calendar Data Platform. Orchestre l’intake et le triage avec priorisation valeur/risque/coût et séquencement des dépendances inter-produits et inter-équipes. Tient à jour les roadmaps et objectifs Data Platform en lien avec la direction Data Office. Met à jour et analyse les KPIs Data Platform. Alerte sur les écarts majeurs. Anime l'équipe Data Product Management. Coordonne les plannings, suit l’avancement et propose des arbitrages en cas de conflit de capacité. Met en place et diffuse le modèle opérationnel de delivery orienté produit : spécifications / user stories, critères d’acceptation, definion of ready/done, backlog management, move2run, etc. Accompagne l'équipe Run dans la mise à jour des SLA/SLO, leur suivi cross-équipes et les moyens mis en oeuvre pour l'amélioration continue. Assure la cohérence transverse notamment avec DevEx, Data Office Management, et Data Governance. Evite les duplications et aligne standards et conventions. Sollicite et équilibre les partenaires externes stratégiques. Suivi budgétaire : Assure le suivi des budgets produits et des indicateurs de performance en alertant immédiatement sur les écarts et en proposant des solutions pragmatiques adaptées à l'horizon de temps. Collabore avec le Data Office Management pour un pilotage financier rigoureux. déploie showback, prépare le chargeback, identifie les postes de dépense inefficients ou obsolètes et propose une stratégie pour y remédier. Outils & méthodologies : Déploie des outils de pilotage (roadmaps/objectifs, reporting, tableaux de bord, gestion documentaire). Propose les bons KPIs de suivi. Alimente les outils de BI pour automatiser et croiser. Garantit le respect des méthodologies produit & projet notamment pour le delivery et identifie les écarts. Anime l’amélioration continue (retours d’expérience, post-mortems, actions correctives). Profil recherché : Diplômé Bac+5 (école d’ingénieur, université ou équivalent) avec une Expérience confirmée en gestion de produits Data (data platform / analytics engineering / data products) dans des environnements complexes. Expérience requise en mise en place d'approche produit/agile pour le delivery, stratégie d'implémentation en continu (projets en cours), accompagnement de l'équipe, des partenaires et des stakeholders. Expérience confirmée en coordination multi-produits et reporting exécutif ; capacité à arbitrer et synchroniser des roadmaps. Solide culture Data & AI Platform : Datawarehouse cloud (Snowflake), dbt, Orchestration (OpCon/Airflow), Dataviz (Power BI), Observabilité, DevEx, FinOps, MLOps/LLM. Maîtrise des pratiques gouvernance technique (Catalog/Lineage, GDPR automation) et des SLO/SLA. Expérience confirmée de management de profils Product Owner / Product Manager en collaboration avec des équipes techniques. Excellente communication écrite et orale (FR/EN), leadership transverse en organisation matricielle, sens de la pédagogie et de l’accompagnement au changement. Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Freelance

Mission freelance
Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling)

Publiée le
APS

3 mois
400-550 €
Paris, France
Télétravail partiel
Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling) (côté DSI : Architecture / Urbanisation / Sécurité) Profil recherché • Expérience confirmée d’un rôle en Architecture / Urbanisation dans un contexte supply chain retail (idéalement APS / planning / replenishment) • Pratique avérée de RFP / AO éditeurs avec analyse technique et challenge des réponses • Bonne maîtrise des pratiques cloud / SaaS enterprise, API, sécurité applicative, data governance • Connaissance du marché APS est un plus appréciable, pas nécessairement expert mais capable de les challenger techniquement • Savoir rédiger des livrables (RFP, scoring, note de reco, note d’architecture) & faciliter les échanges entre métier, DSI, éditeurs Contexte : Dans le cadre d’un projet de refonte de l’approvisionnement magasins et de sélection d’une nouvelle solution APS (Advanced Planning & Scheduling), la DSI recherche un(e) consultant(e) confirmé(e) capable d’intervenir au carrefour métier / architecture SI / sécurité, avec un rôle clé durant l’appel d’offres éditeurs.⸻ Missions principales Sur le périmètre APS et Supply : • Compréhension des besoins d’approvisionnement magasin et de leur déclinaison fonctionnelle dans l’APS • Participation à la rédaction/lecture critique des exigences dans le RFP Sur le périmètre DSI (cœur de la mission) : • Analyse technique des solutions candidates : architectures, patterns d’intégration, scalabilité, performance, SLA • Urbanisation & alignement SI : compatibilité avec les briques existantes (ERP, WMS, ETL, dataplatform…), dette / cohérence cible • Sécurité & conformité : exigences Cyber, IAM / RBAC, data privacy, auditabilité, certifications, hébergement (SaaS/Public cloud/On prem), réversibilité • Interopérabilité & intégration : API, bus d’intégration, latence, cadence de rafraîchissement, gestion des exceptions • Participation aux soutenances éditeurs côté DSI** : questionning, scoring, risques, trade-offs techniques • Support à la décision : matrice de scoring technique, risques d’implémentation, dépendances, TCO/ROI technique Livrables attendus • Contribution RFP (volets non-fonctionnels, intégration, sécurité, architecture cible) • Matrices d’analyse / scoring technique + note de risques • Note de recommandation finale côté DSI (urbanisation, sécurisation, intégration)
14 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous