L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 46 résultats.
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
PO DATA - Expérience data clinique / santé impératif
Net technologie
Publiée le
Data governance
Data quality
1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Proxy Product Owner Data / BI – Environnement Agile
Comet
Publiée le
CyberSoc
1 an
400-590 €
Île-de-France, France
Nous recherchons un(e) Proxy Product Owner expérimenté(e) pour intervenir sur un projet data stratégique, en phase BUILD, au sein d’un grand groupe international. Objectif de la mission Accompagner l’équipe produit dans la conception et la livraison de solutions data à forte valeur métier, avec un rôle clé d’interface entre les équipes techniques et les parties prenantes métier. Responsabilités principales Participation active aux cérémonies Agile (Scrum) Enrichissement et pilotage du backlog (Jira) Analyse des besoins data et des sources nécessaires à la construction de KPIs Définition des règles de transformation et critères d’acceptation Conception de modèles de données (Snowflake, Power BI) Contribution aux phases de tests (UAT) avec les stakeholders Suivi de l’orchestration et des flux de données Production et mise à jour de la documentation fonctionnelle
Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote
Signe +
Publiée le
Snowflake
12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Mission freelance
Mission de transition IT – Proxy Product Owner Data (Run focus)
Comet
Publiée le
CyberSoc
1 an
400-590 €
Île-de-France, France
Dans un contexte de turnover / reprise de périmètre , un grand groupe international recherche un(e) Proxy Product Owner Data pour intervenir sur une application data à fort enjeu cybersécurité , actuellement en phase de RUN. 🎯 Contexte de la mission Environnement IT structuré et exigeant Application data critique à usage cybersécurité Passage Build → RUN à sécuriser Forte interaction avec les équipes IT, data et utilisateurs finaux Mission orientée stabilisation, fiabilisation et continuité opérationnelle Responsabilités principales Piloter la transition et la stabilisation du RUN Gérer et prioriser le backlog incidents RUN (ServiceNow) Arbitrer les tickets RUN selon les risques et impacts business Coordonner l’analyse et le traitement des incidents avec les équipes de développement Produire des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting sur les flux et datasets data Garantir la performance opérationnelle et la fiabilité des solutions data Contribuer à l’accompagnement et au support des utilisateurs (reporting et modèles data)
Mission freelance
Proxy Product Owner (P.PO) Data
Celexio
Publiée le
Database
Product management
Snowflake
1 an
500-600 €
Paris, France
Proxy PO (P.PO) Data / Snowflake Contexte Projet Au sein d'un grand groupe international, nous recherchons un Proxy Product Owner pour intégrer l'équipe de notre client et travailler avec le PO en place. Projet Datalake, qui gère le pilotage des risques au sein du groupe. Renfort sur la partie "RUN" et monitoring Missions Principales Gestion du RUN : Suivi, rédaction et analyse des incidents. Structuration de la partie support/maintenance. Data & Monitoring : Suivi de la data sur le changement des services. Documentation : Travail de rétro-ingénierie pour documenter l'existant. Change Management : Accompagnement via des vidéos et des ateliers/workshops. Coordination : Collaboration avec le PO déjà en place et lien avec les équipes en Inde (Offshore).
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
Deodis
Publiée le
Salesforce
1 an
550-580 €
Île-de-France, France
Le Product Owner CRM – Data Client BtoB & Prospection chez TF1 Publicité est responsable de la gestion et de l’évolution du référentiel client et des processus de prospection au sein du CRM Salesforce. Intégré à la Direction des Technologies, il définit la vision produit, pilote la roadmap et coordonne les développements afin d’améliorer les outils utilisés par les équipes commerciales. En collaboration avec les métiers et les équipes techniques, il recueille les besoins, priorise le backlog, garantit la cohérence avec les autres systèmes du SI et accompagne le déploiement des nouvelles fonctionnalités pour optimiser la gestion de la data client B2B et soutenir la performance commerciale.
Offre d'emploi
Product Owner Analytics - (H/F)
DAVRICOURT
Publiée le
40k-50k €
Paris, France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst / Product Owner Data Manufacturing pour l'un de nos clients du secteur agroalimentaire en Île-de-France. À ce titre, vos missions quotidiennes seront les suivantes : - Recueillir et formaliser les besoins métiers liés à la donnée manufacturing ; - Transformer la donnée brute en KPI et dashboards exploitables ; - Construire ou faire évoluer des reportings et produits data ; - Piloter le backlog et travailler dans un environnement agile (Scrum / SAFe) ; - Collaborer avec les équipes métiers et techniques au sein d'un écosystème data & analytics. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Product Owner MDM H/F
HAYS France
Publiée le
Master Data Management (MDM)
Product management
TIBCO
6 mois
La Défense, Île-de-France
Nous recherchons pour le compte de notre client un Product Owner MDM H/F pour une mission en freelance ou portage salarial de 6 mois en vue d’embauche à pourvoir dès que possible dans le 92. Notre client propose 2 jours de télétravail maximum par semaine. Les préavis d’un mois sont acceptés. Mission principale : Porter la vision et la stratégie du produit MDM dédié à la gestion (entre autres) des Tiers, des Clients, des taux de change, des sites et des certifications, en alignement avec les objectifs métiers et IT de notre client. Responsabilités : Vision & Stratégie Construire et porter la vision du produit MDM pour les objets Tiers, Clients, taux de change, sites, certifications. Alignement avec les besoins métiers (Finance, Commerce, Opérations, Compliance, Business Excellence etc.) et la stratégie IT/Data du groupe. Recueil & Priorisation des besoins Recueillir, analyser et prioriser les besoins des parties prenantes (métiers, IT, data, finance, Commerce, Business Excellence, conformité, etc.). Organiser des ateliers de cadrage et de recueil des besoins. Roadmap & Backlog Définir, maintenir et communiquer la roadmap du produit. Rédiger et maintenir les user stories, critères d'acceptance, et gérer le backlog. Assurer la cohérence des évolutions fonctionnelles et techniques. Collaboration & Delivery Travailler étroitement avec les équipes de développement, architectes, data stewards et experts métier pour garantir la qualité, la fiabilité et la sécurité des données. Animer les cérémonies Agile (Sprint Planning, Daily, Review, Rétrospective) et assurer le suivi du delivery. Qualité & Recette Contrôler la qualité des livrables et piloter la recette fonctionnelle des nouvelles fonctionnalités. S’assurer de la conformité des données et des évolutions avec les exigences réglementaires et internes. Adoption & Support utilisateur Accompagner les utilisateurs dans l’adoption de la solution. Organiser les phases de formation, supports et change management. Veille & Amélioration continue Assurer une veille sur les évolutions réglementaires et technologiques liées à la gestion des données des différents Master Datas. Proposer des axes d’amélioration continue du produit. Indicateurs de réussite Qualité et fiabilité des données gérées Satisfaction des utilisateurs et des parties prenantes Respect des délais et du budget Adoption et utilisation de la solution Contribution à l’amélioration continue du produit
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
SKILLWISE
Publiée le
CRM
Salesforce
1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Mission freelance
Développeur Fullstack Senior Python Typescript(H/F)
HOXTON PARTNERS
Publiée le
API REST
Python
TypeScript
6 mois
500-600 €
Paris, France
Dans le cadre d’un programme d’envergure, nous recherchons un Développeur Fullstack confirmé pour intervenir sur la conception, le développement et le maintien en condition opérationnelle de composants logiciels critiques. Le projet s’inscrit dans un contexte d’innovation, d’interopérabilité et de valorisation de données sensibles, à destination de médecins, chercheurs et équipes métiers, avec une forte orientation Open Source. Missions principales Le consultant interviendra sur l’ensemble du cycle de vie des applications, avec un haut niveau d’autonomie, et sera notamment en charge de : Concevoir et développer des composants Front-end et Back-end robustes et réutilisables Développer et exposer des API REST conformes aux standards d’interopérabilité (FHIR) Réaliser des interfaces utilisateurs en JavaScript / TypeScript (React) Assurer la maintenance évolutive et le maintien en condition opérationnelle des applicatifs Produire des spécifications techniques détaillées et de la documentation technique Mettre en œuvre les tests unitaires, fonctionnels et de non-régression Contribuer à la qualité logicielle (sécurité, performance, documentation) Collaborer avec des équipes pluridisciplinaires (designers, PM/PO, data engineers, chercheurs, médecins) Participer à des projets Open Source reconnus dans le domaine de la santé
Offre d'emploi
Expert Dataviz & Dashboarding
Lùkla
Publiée le
Apache Spark
Data visualisation
ELK
2 ans
55k-60k €
450-600 €
Guyancourt, Île-de-France
Au sein de l'équipe Data4Ops, vous jouez un rôle pivot dans la structuration et la valorisation des données opérationnelles du Système d'Information (SI). En collaboration directe avec le Product Owner Data et le Product Manager Observabilité, votre objectif est de transformer des flux de données complexes en leviers de décision stratégiques et opérationnels. Votre mission principale consiste à automatiser la collecte, la manipulation et la mise en image des données pour créer des outils de pilotage haute performance. Conception et stratégie : Recueil des besoins auprès des parties prenantes métiers et techniques. Rédaction des spécifications fonctionnelles et techniques. Conception de la documentation utilisateur et technique pour garantir la pérennité des solutions. Développement de visualisations : Création de tableaux de bord interactifs et de graphiques dynamiques sous Power BI et Grafana. Design d'interfaces intuitives permettant une lecture immédiate des enjeux critiques. Adaptation des rapports aux différents profils utilisateurs (Top Management vs Équipes Ops). 3. Engineering & analyse de données : Définition et implémentation de KPI métiers et techniques. Extraction, transformation et analyse automatisée (ETL) de données multi-sources. Modélisation de données pour optimiser les performances d'affichage des dashboards.
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Offre d'emploi
Architecte Data Azure / Databricks
xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
46 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois