Trouvez votre prochaine offre d’emploi ou de mission freelance Data governance

Votre recherche renvoie 48 résultats.
Freelance

Mission freelance
Product Owner Technique – Data Platform

Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Freelance

Mission freelance
Architecte / Expert MongoDB Atlas sur Azure

Publiée le
.NET CORE
Apache Kafka
Architecture ARM

6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Freelance

Mission freelance
Product Owner Data Expert

Publiée le
Agile Scrum
Architecture
Azure Data Factory

12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Freelance

Mission freelance
Data Steward Lyon H/F

Publiée le
Data quality
Database

6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Steward pour une mission de 6/12 mois afin de garantir la qualité, la cohérence et la gouvernance des données d'une société en pleine migration de son SI. L'objectif est d'amorcer un gros chantier d'alimentation/ documentation de données métiers afin de sensibiliser les collaborateurs. Au sein d'une équipe de 6 personnes, vous aurez pour missions principales d'assurer: la qualité des données : mettre en place et suivre les règles de contrôle (DQM, définition de principes, règles, contrôle qualité). la gouvernance : appliquer les standards définis par la Data Governance (data catalogue, glossaire métier, référentiels, dashboard, alerting). la documentation : enrichir et maintenir le dictionnaire de données, les métadonnées et les règles de gestion. le support aux métiers : accompagner les équipes dans l’usage et la compréhension des données. la collaboration IT/Business : assurer le lien entre les équipes techniques et les métiers pour garantir la pertinence des données. En somme, vous formalisez le cycle de vie de la data et harmonisez/structurez les process de documentations.
Freelance

Mission freelance
Architecte d’Entreprise / Urbaniste SI Senior

Publiée le
API Platform
Architecture
AWS Cloud

12 mois
650-800 €
Paris, France
Télétravail partiel
Au sein de la DSI, vous rejoignez la Direction de l’Architecture et de l’Urbanisme pour accompagner la transformation du système d’information et garantir sa cohérence avec les enjeux métiers et la stratégie d’entreprise. Vous interviendrez sur des projets structurants, de l’urbanisation du SI à la conception de solutions cibles en passant par la gouvernance des architectures. ⚙️ Missions principales 1. Gouvernance et urbanisation du SI Définir et maintenir la cartographie du système d’information (métier, applicative, données, technique). Assurer la cohérence et la rationalisation du portefeuille applicatif . Identifier les axes de simplification, de mutualisation et de modernisation du SI. Contribuer à la feuille de route d’évolution de l’architecture d’entreprise . 2. Architecture d’entreprise et de solutions Concevoir des architectures cibles alignées avec les besoins métiers et les standards techniques. Rédiger les documents d’architecture (Dossier d’Architecture, Dossier d’Urbanisation, DAT, DEX, etc.) . Participer à la conception fonctionnelle et technique des solutions (intégration, données, sécurité, performance). Accompagner les équipes projets dans le choix des solutions et des trajectoires d’évolution . 3. Conseil et accompagnement Conseiller les directions métiers et les chefs de projets sur les orientations technologiques et d’urbanisation . Animer les comités d’architecture , les ateliers de conception et de cadrage. Diffuser les bonnes pratiques d’architecture et contribuer à la montée en compétence des équipes. 4. Pilotage et innovation Identifier les technologies émergentes et en évaluer la pertinence pour l’entreprise. Contribuer aux schémas directeurs , à la stratégie cloud, data et API . Participer aux études d’impacts et d’opportunités pour de nouveaux projets SI. 🧠 Compétences techniques et fonctionnelles Architecture / Urbanisation TOGAF, ArchiMate, Zachman ou équivalents Outils de modélisation : MEGA HOPEX, ARIS, Enterprise Architect, etc. Maîtrise des architectures orientées services, API, microservices, data-centric Bonne compréhension des architectures cloud (Azure, AWS, GCP) Gouvernance des données, interopérabilité, sécurité SI Environnements techniques Connaissances générales en infrastructure (réseaux, middleware, cloud, sécurité) Bonne maîtrise des Systèmes d’Information complexes et intégrés (ERP, CRM, SIG, GED, etc.) Compétences fonctionnelles Capacité à dialoguer avec les métiers : finance, RH, logistique, production, relation client, etc. Capacité d’analyse et de synthèse, esprit de gouvernance et d’alignement stratégique
Freelance

Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Publiée le
Azure Data Factory
Azure DevOps
BI

12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
CDI
Freelance

Offre d'emploi
Chef de Projet - Secteur Energie (H/F)

Publiée le
Gestion de projet

6 mois
65k-92k €
400-550 €
Luxembourg
Télétravail partiel
DSI Group recherche actuellement un Chef de Projet F/H, pour l'un de ses clients du secteur de l'énergie situés au Luxembourg. Le chef de projet aura pour mission de piloter plusieurs projets stratégiques liés à l’énergie, aux systèmes d’information et à la transformation digitale. Il/elle interviendra sur des thématiques variées : conformité réglementaire, infrastructure IT, data governance, reporting, CRM, etc. Exemple de projets : Amélioration de l’infrastructure cloud Communication autour des évènements sur le réseau Adaptations nécessaires à la nouvelle loi électricité Analyse de nouvelles régulations Intégration des clients MT dans le CRM Mise à jour d’une solution de virtualisation Amélioration du reporting financier Projet relatif à la Data Governance
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Freelance

Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)

Publiée le
Agile Scrum
Angular
Apache Kafka

12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Freelance

Mission freelance
Security Solutions Operations Lead

Publiée le
IAM
JIRA
Microsoft Purview

3 ans
400-800 €
Paris, France
Télétravail partiel
Nous recherchons pour notre client un Security Solutions Operations Lead spécialisé dans l’Identity & Data Governance, basé à Paris. 6 mois de prestation ensuite embauche Ce n’est pas un poste d’architecture ou de gouvernance pure, mais un rôle opérationnel : maintenir, gérer, supporter et faire évoluer les solutions d’identités (IAM / IGA) déjà en place. Vos taches : Gérer au quotidien les solutions d’identité (Identity Governance, Identity Administration, Identity Analytics). Mettre à jour, maintenir et documenter les procédures techniques Installer les mises à jour logicielles / patchs Travailler avec l’équipe Infra (notamment LDAP / AD / Entra). Suivre les prestataires / intégrateurs (Sailpoint, Microsoft Purview) Surveiller les performances et renforcer la sécurité Être d’astreinte sur certains systèmes critiques. Assurer le support utilisateurs + résoudre les incidents
Freelance

Mission freelance
Head of Data

Publiée le
Gouvernance
Management
Pilotage

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
CDI

Offre d'emploi
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française

Publiée le
AI
Apache Airflow
Data analysis

Paris, France
Télétravail partiel
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française Un de nos importants clients recherche un Data Platform Product Manager dans le cadre d'un CDI à Paris. Le Data Platform Product Manager a pour mission de structurer et piloter le portefeuille de produits de la plateforme data. Il développe l'équipe et le modèle opérationnel permettant d'orchestrer l'intake, la priorisation et le delivery. Il assure le suivi opérationnel, budgétaire et méthodologique du portefeuille en garantissant l’alignement avec le Data Office Management, et en maximisant l’adoption et la valeur pour le Data Office et la Maison. Véritable partenaire des leaders techniques de la Data Platform, des autres pôles du Data Office et des différentes filiales, vous alignez vision, roadmaps, budgets, SLO et accompagnez les Platform Product Owners dans la mise en œuvre des méthodologies et des outils pour atteindre leurs objectifs dans le respect des délais et des exigences de qualité de la Maison. Vous jouez un rôle clé dans la stratégie produit, la gestion des risques, et la diffusion d’une culture produit au sein de la Data Platform. Principales activités : Engagement opérationnel : Pilote le portefeuille de produits Data Platform en collaboration avec le Data Office Management et en appui aux responsables de scope. Consolide le reporting et tient le release calendar Data Platform. Orchestre l’intake et le triage avec priorisation valeur/risque/coût et séquencement des dépendances inter-produits et inter-équipes. Tient à jour les roadmaps et objectifs Data Platform en lien avec la direction Data Office. Met à jour et analyse les KPIs Data Platform. Alerte sur les écarts majeurs. Anime l'équipe Data Product Management. Coordonne les plannings, suit l’avancement et propose des arbitrages en cas de conflit de capacité. Met en place et diffuse le modèle opérationnel de delivery orienté produit : spécifications / user stories, critères d’acceptation, definion of ready/done, backlog management, move2run, etc. Accompagne l'équipe Run dans la mise à jour des SLA/SLO, leur suivi cross-équipes et les moyens mis en oeuvre pour l'amélioration continue. Assure la cohérence transverse notamment avec DevEx, Data Office Management, et Data Governance. Evite les duplications et aligne standards et conventions. Sollicite et équilibre les partenaires externes stratégiques. Suivi budgétaire : Assure le suivi des budgets produits et des indicateurs de performance en alertant immédiatement sur les écarts et en proposant des solutions pragmatiques adaptées à l'horizon de temps. Collabore avec le Data Office Management pour un pilotage financier rigoureux. déploie showback, prépare le chargeback, identifie les postes de dépense inefficients ou obsolètes et propose une stratégie pour y remédier. Outils & méthodologies : Déploie des outils de pilotage (roadmaps/objectifs, reporting, tableaux de bord, gestion documentaire). Propose les bons KPIs de suivi. Alimente les outils de BI pour automatiser et croiser. Garantit le respect des méthodologies produit & projet notamment pour le delivery et identifie les écarts. Anime l’amélioration continue (retours d’expérience, post-mortems, actions correctives). Profil recherché : Diplômé Bac+5 (école d’ingénieur, université ou équivalent) avec une Expérience confirmée en gestion de produits Data (data platform / analytics engineering / data products) dans des environnements complexes. Expérience requise en mise en place d'approche produit/agile pour le delivery, stratégie d'implémentation en continu (projets en cours), accompagnement de l'équipe, des partenaires et des stakeholders. Expérience confirmée en coordination multi-produits et reporting exécutif ; capacité à arbitrer et synchroniser des roadmaps. Solide culture Data & AI Platform : Datawarehouse cloud (Snowflake), dbt, Orchestration (OpCon/Airflow), Dataviz (Power BI), Observabilité, DevEx, FinOps, MLOps/LLM. Maîtrise des pratiques gouvernance technique (Catalog/Lineage, GDPR automation) et des SLO/SLA. Expérience confirmée de management de profils Product Owner / Product Manager en collaboration avec des équipes techniques. Excellente communication écrite et orale (FR/EN), leadership transverse en organisation matricielle, sens de la pédagogie et de l’accompagnement au changement. Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Freelance
CDI
CDD

Offre d'emploi
Data Scientist

Publiée le
Python

6 mois
Liège, Belgique
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
Freelance

Mission freelance
Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling)

Publiée le
APS

3 mois
400-550 €
Paris, France
Télétravail partiel
Consultant(e) Approvisionnement Retail — Mission APS (advanced planning and scheduling) (côté DSI : Architecture / Urbanisation / Sécurité) Profil recherché • Expérience confirmée d’un rôle en Architecture / Urbanisation dans un contexte supply chain retail (idéalement APS / planning / replenishment) • Pratique avérée de RFP / AO éditeurs avec analyse technique et challenge des réponses • Bonne maîtrise des pratiques cloud / SaaS enterprise, API, sécurité applicative, data governance • Connaissance du marché APS est un plus appréciable, pas nécessairement expert mais capable de les challenger techniquement • Savoir rédiger des livrables (RFP, scoring, note de reco, note d’architecture) & faciliter les échanges entre métier, DSI, éditeurs Contexte : Dans le cadre d’un projet de refonte de l’approvisionnement magasins et de sélection d’une nouvelle solution APS (Advanced Planning & Scheduling), la DSI recherche un(e) consultant(e) confirmé(e) capable d’intervenir au carrefour métier / architecture SI / sécurité, avec un rôle clé durant l’appel d’offres éditeurs.⸻ Missions principales Sur le périmètre APS et Supply : • Compréhension des besoins d’approvisionnement magasin et de leur déclinaison fonctionnelle dans l’APS • Participation à la rédaction/lecture critique des exigences dans le RFP Sur le périmètre DSI (cœur de la mission) : • Analyse technique des solutions candidates : architectures, patterns d’intégration, scalabilité, performance, SLA • Urbanisation & alignement SI : compatibilité avec les briques existantes (ERP, WMS, ETL, dataplatform…), dette / cohérence cible • Sécurité & conformité : exigences Cyber, IAM / RBAC, data privacy, auditabilité, certifications, hébergement (SaaS/Public cloud/On prem), réversibilité • Interopérabilité & intégration : API, bus d’intégration, latence, cadence de rafraîchissement, gestion des exceptions • Participation aux soutenances éditeurs côté DSI** : questionning, scoring, risques, trade-offs techniques • Support à la décision : matrice de scoring technique, risques d’implémentation, dépendances, TCO/ROI technique Livrables attendus • Contribution RFP (volets non-fonctionnels, intégration, sécurité, architecture cible) • Matrices d’analyse / scoring technique + note de risques • Note de recommandation finale côté DSI (urbanisation, sécurisation, intégration)
48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous