Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 80 résultats.
Alternance

Offre d'alternance
Data Engineer (Databricks /Azure)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD

Châtillon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chef de projet MOA Data F/H - Maîtrise d'ouvrage et fonctionnel (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Python
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Tech Lead Full-Stack Senior – Environnement Data & GenAI (H/F)

Freelance.com
Publiée le
BigQuery
CI/CD
Github

6 mois
400-640 €
Île-de-France, France
📍 Lieu : Saint-Ouen 📅 Démarrage : ASAP ⏳ Durée : 02/03/2026 → 31/12/2026 💼 Expérience requise : 9 ans minimum 🗣 Anglais : courant 🔎 Description du poste Dans un contexte d’innovation digitale autour des sujets Data, GenAI et performance média , vous intervenez en tant que Tech Lead / Développeur Full-Stack Senior au sein d’une équipe pluridisciplinaire (Tech Lead, Full-Stack, Data Scientist, Data Engineer, Product Owner, QA). Vous serez en charge de la conception et du développement d’applications permettant notamment d’offrir une vision consolidée de la performance des assets média, depuis la stratégie globale jusqu’à l’activation locale. Vos missions principales : Développer des applications front-end performantes et responsive (React.js, JavaScript moderne) Concevoir et exposer des API de consommation pour la valorisation des données (BigQuery, PostgreSQL, MongoDB) Concevoir et implémenter des services back-end en Node.js et Python (FastAPI) Modéliser et exploiter des données via MongoDB et PostgreSQL Sourcer les données dans le Data Lake BigQuery et alimenter des Knowledge Graph Mettre en place et maintenir les pipelines CI/CD (GitHub Actions, GitLab CI, Jenkins…) Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Architecture Investiguer et résoudre les problématiques techniques (debug, performance, optimisation) Intervenir sur des sujets Cloud GCP
CDI

Offre d'emploi
Data Analyst- Part de Marché F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Python

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
POT8947 - Un Développeur Mobile / Data Engineering sur Chatillon

Almatek
Publiée le
SQL

6 mois
250-330 €
Châtillon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Développeur Mobile / Data Engineering sur Chatillon. Description détaillée 1) Développement mobile -Assurer la maintenance évolutive et corrective d’une application mobile en React Native. -Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité). -Implémenter de nouvelles fonctionnalités et les tests associés, en suivant une démarche Clean Code (sécurité, maintenabilité). 2) Data Engineering -Concevoir, développer et implémenter des solutions Big Data Analytics. -Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake. -Développer des notebooks avancés sous Databricks (SQL, Framework Spark). -Rédiger la documentation technique (DAT, release notes, etc.). -Réaliser les tests unitaires et assurer la qualité des livrables. -Contribuer à la maintenance évolutive et corrective des traitements. -Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés. Profil recherché -Expérience confirmée en développement d’applications React Native en production (minimum 5 ans). -Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (minimum 3 ans). -Maîtrise des APIs REST. -Bonne connaissance de Git et première expérience en CI/CD / DevOps. **Compétences techniques** -React Native – Expert – Impératif -Databricks – Confirmé – Impératif -Spark – Confirmé – Impératif -SQL – Confirmé – Impératif Localisation : Chatillon + 2 jrs de TT
Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
500-600 €
Île-de-France, France
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Freelance
CDI
CDD

Offre d'emploi
Chef de Projet Technique Finance – ERP MS Dynamics 365 F&O / AX (H/F)

SMARTPOINT
Publiée le
Finance
Microsoft Dynamics

1 an
55k-70k €
400-550 €
Île-de-France, France
Dans un contexte de croissance externe et de transformation digitale des fonctions Finance, nous recherchons un(e) Chef(fe) de Projet Technique Finance disposant d’une expertise confirmée sur Microsoft Dynamics 365 Finance & Operations / Dynamics AX . Vous interviendrez sur le déploiement de l’ERP au sein de sociétés récemment acquises, la stabilisation du paysage applicatif existant et contribuerez activement aux projets de modernisation des systèmes Finance. Vos missions En collaboration étroite avec les équipes IT internes et les partenaires externes, vous serez en charge de : Architecture des systèmes Finance : Participer à l’amélioration continue de l’architecture applicative Finance (Data Lake, Azure Synapse, décommissionnement LCS, refonte ou remplacement des outils de reporting) Réaliser les évaluations techniques des nouveaux outils Support technique & coordination : Assurer le suivi des évolutions techniques et des incidents Piloter l’implémentation de scripts techniques Coordonner les actions entre équipes internes et prestataires externes Reporting : Superviser la mise en œuvre technique des nouveaux outils de reporting
CDI

Offre d'emploi
Data Engineer (F/H) – Domaine de l’environnement - Toulouse

CELAD
Publiée le

38k-44k €
Toulouse, Occitanie
2 jours de télétravail / semaine - Toulouse - Expérience de 3 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons un(e) Data Engineer pour intervenir chez l’un de nos clients dans le domaine de l’environnement , disposant d’une plateforme Big Data exploitant de très grands volumes de données. Ces données alimentent des algorithmes d’analyse avancée et des services à forte valeur ajoutée (détection d’anomalies, prévisions, aide à la décision). Vous rejoignez une équipe data transverse avec un objectif clair : industrialiser et fiabiliser des traitements Big Data à grande échelle. Vos missions : Au sein d’une équipe Transformation & Modélisation pluridisciplinaire (data engineers, data scientists, développeurs), vous serez amené(e) à : Contribuer à la mise en place et à l’évolution de la stack Big Data Développer des jobs Spark pour l’ingestion, la préparation et l’enrichissement de données massives Alimenter et maintenir les données du data lake ou les rendre disponibles pour des usages IA / ML Travailler avec les outils de conteneurisation et d’orchestration comme Docker, Kubernetes et Helm Enrichir le serving layer et exposer les données via des web services Participer à la mise en production , à la maintenance et à l’amélioration continue des traitements Collaborer étroitement avec les équipes data, IT et métiers Compétences techniques : ️ Expérience confirmée en Data Engineering et traitement de données volumineuses Solide expérience en Java / Maven (J2EE / JDK 17) et Scala Maîtrise de Spark (SQL / DataFrame) pour traiter de grands volumes Bonne connaissance des architectures Big Data et des data lakes Expérience sur des pipelines data industrialisés Sensibilité aux problématiques de performance, robustesse et qualité des données Une connaissance des environnements ML / IA est un plus
Freelance
CDD

Offre d'emploi
Développeur mobile React Native / Data Engineer H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Freelance

Mission freelance
Expert technique Qualys H/F

TIBCO
Publiée le
Qualys

1 an
550-600 €
Paris, France
En tant qu’Expert technique Qualys, vous interviendrez sur l’ensemble du cycle de vie du service de gestion des vulnérabilités : Expertise technique & sécurité - Déployer, configurer et administrer la solution Qualys (VM, PC, Policy Compliance, WAS, etc.) - Piloter les scans de vulnérabilités (réseau, systèmes, applications) et analyser les résultats - Définir et mettre en œuvre des mesures techniques de vulnérabilité et des indicateurs de sécurité - Contribuer aux activités de conformité et de réduction du risque cyber Intégration & industrialisation - Intégrer les données Qualys dans les outils Groupe (SIEM, data lake, reporting, ITSM) - Participer à la définition des processus opérationnels cibles (run, supervision, remédiation) - Garantir la couverture du périmètre technique (on-prem, cloud, environnements hybrides) - Contribuer aux phases de POC , d’évaluations techniques et de choix d’architecture Collaboration & documentation - Travailler en étroite collaboration avec les équipes Sécurité, Infrastructure, Produit et Exploitation - Produire la documentation technique (interfaces, processus, modes opératoires) - Assurer la transition vers les équipes opérationnelles (handover, runbook) - Tous les livrables et présentations doivent être rédigés en anglais .
Freelance

Mission freelance
Lead Data Engineer - Python/AWS/DevOps/ Big Data/ Linux / Energie (H/F)

Octopus Group
Publiée le
Apache Airflow
Apache Spark
API

6 mois
500-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans l'Energie, un Lead data Engineer. Objectifs : Etre le/la référent(e) technique de la plateforme de données - coordination technique transverse Etre référent principale sur un sujet pilote Définir, mettre en œuvre et automatiser des pipes des données et gouvernance Assurer le Run notamment la MCO, la CI / CD et la mise en production en coordination avec l’équipe référente Préparer les pipelines Data en coordination avec l’architecte et le manager Avoir un sens expérimental et de proposition dans un contexte Multi cloud est un atout majeur Missions : Etre le/la référent(e) technique de la plateforme de données Etre garant(e) du socle technique de la plateforme data et de son évolution, Définir les besoins techniques, la roadmap d’évolution du socle technique de la plateforme de données pour suivre ses changements d’échelle et garantir ses performances et sa maintenabilité, Etre mentor et référent pour les membres de l’équipe, Participer aux choix de nos partenaires. Le dev de devops : définir, mettre en œuvre et automatiser des pipes des données et gouvernance Mettre en place des projets Data Lake (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans la meilleure architecture, Définir les meilleures de façon de stocker exposer les données au sein de la plateforme selon les usages attendus, Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats, Réaliser les développements en ayant intégré les besoins et pratiques des analystes et data scientists. run et environnements Maintenir les environnements techniques et partager vos connaissances, Gérer les incidents et s’assurer de leur résolution dans une logique d’amélioration continue et d’automatisation (ex : rejeu de données), Assurer la supervision des traitements (technique et fonctionnelle).
Freelance

Mission freelance
Data Engineer Expert H/F

OUICODING
Publiée le

1 mois
580-900 €
Paris, Île-de-France
Accès, intégration et qualité de la donnée : -Garantir l'accès aux sources de données internes et externes -Superviser l'intégration de données de natures variées (structurées / non structurées) -Vérifier et contrôler la qualité des données entrant dans le Data Lake -Recetter la donnée : détection d'anomalies, suppression des doublons, validation des flux Qualification & gestion des données : -Capteur de données produites par les applications ou sources externes -Intégration et consolidation des données -Structuration de la donnée (modélisation, sémantique, normalisation) -Cartographie des données disponibles -Nettoyage et fiabilisation des jeux de données -Validation fonctionnelle et technique -Création et maintien éventuel de référentiels de données Gouvernance & conformité : -Contribution à la politique de la donnée -Structuration du cycle de vie des données -Respect des réglementations en vigueur (RGPD & friends)
CDI
Freelance

Offre d'emploi
Data Engineer Python / Azure Cloud

Craftman data
Publiée le
Azure
Azure Data Factory
Python

1 an
Paris, France
Dans le cadre du lancement d’un nouveau projet stratégique orienté data, notre client souhaite s’appuyer sur l’expertise d’un Data Engineer senior afin de concevoir, développer et industrialiser des pipelines de données robustes dans un environnement Azure Cloud serverless . La mission s’inscrit dans un contexte exigeant en matière de qualité logicielle , de scalabilité et de sécurité , avec une forte collaboration entre les équipes data, software et ops , dans une logique de non-silotage et de montée en compétences collective. Objectifs de la mission Concevoir et mettre en œuvre des pipelines de données performants et maintenables Garantir la qualité, la fiabilité et la traçabilité des données traitées Industrialiser les flux de données dans un environnement cloud Azure serverless Contribuer activement à l’architecture data et aux bonnes pratiques de l’équipe Périmètre et missions principales Le consultant interviendra notamment sur les activités suivantes : Conception et développement de pipelines de données en Python Implémentation de traitements batch et orchestrations via Azure Durable Functions (v2) Manipulation et optimisation de volumes de données importants (formats Parquet) Mise en place de validations de schémas et de contrôles de qualité des données Intégration et consommation d’ APIs externes Participation à la modélisation et l’optimisation des bases de données Azure SQL Implémentation de l’ observabilité : logs, métriques et traces Industrialisation des déploiements via des pipelines CI/CD Garantie de la qualité et de la sécurité du code (tests automatisés, coverage, scans de sécurité) Partage des connaissances et accompagnement des membres de la squad Environnement technique Langage : Python Cloud : Azure Functions (Durable Functions v2) Azure Data Lake / Blob Storage / Azure Storage Azure SQL Database Data processing : Pandas Polars PyArrow Architecture : serverless, clean architecture, tests automatisés DevOps : CI/CD, sécurité du code, observabilité Profil recherché Data Engineer senior avec minimum 6 ans d’expérience réussie Excellente maîtrise de Python dans des contextes data complexes Expertise confirmée sur Azure Cloud Solide culture de la qualité logicielle et des bonnes pratiques d’industrialisation Capacité à travailler en équipe, à partager ses connaissances et à faire monter les autres en compétences Anglais courant (écrit et oral) Modalités de la mission Démarrage : mi – fin mars 2026 Durée : longue mission (selon projet) Localisation : Paris Télétravail : 2 jours / semaine Présence sur site : 3 jours / semaine (obligatoire) Processus de sélection Envoi d’un Codingame aux profils présélectionnés (à réaliser sous 72h) Proctoring obligatoire (règles strictes communiquées au profil) Soutenance technique prévue dans la foulée (disponibilité du profil requise) Le non-respect des consignes entraînera la disqualification du profil Livrables attendus Pipelines de données industrialisés et documentés Code testé, sécurisé et conforme aux standards qualité Mise en place de l’observabilité et des contrôles qualité Documentation technique et partage des bonnes pratiques avec la squad
Freelance

Mission freelance
POT8975 - Un chef de projet data avec experience BI entreprise sur Paris

Almatek
Publiée le
PowerBI

6 mois
Paris, France
ALMATEK recherche pour l'un de ses clients, Un chef de projet data avec experience BI entreprise sur Paris Dans le cadre du Programme Relation Client (PRC), le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme PRC s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage PRC vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la DETD (Direction Études, Tarification & Data), sur le volet pilotage du Programme PRC et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme PRC, • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Freelance

Mission freelance
Chef de projet MOA Décisionnelle

HAYS France
Publiée le
Coordination
CRM

3 ans
400-600 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF un Chef de projet MOA Décisionnelle pour une mission freelance (longue visibilité) Contexte de la mission : Dans le cadre d'un programme, le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la Direction, sur le volet pilotage du Programme et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme , • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data : • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses : • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées : • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
80 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous