Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 620 résultats.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
Talend
6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Offre d'emploi
Data Ingénieur (32)
VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Engineer Azure & Databricks (H/F)
CITECH
Publiée le
Data Lake
Databricks
PySpark
12 mois
80k-90k €
550-650 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Architect Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Offre d'emploi
Recetteur
MSI Experts
Publiée le
Business Object
Data quality
Migration
3 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de transformation d’un système de gestion, nous recherchons un(e) Consultant(e) Data / Recette & Qualité des Données pour sécuriser une phase clé de migration. Vous interviendrez sur la validation des données issues d’un nouveau système, avec un objectif central : garantir la fiabilité, la cohérence et l’exploitabilité des données , tout en assurant la continuité des reportings métiers. La mission s’inscrit dans un environnement exigeant, impliquant plusieurs équipes (IT, éditeur, métiers) et des délais structurants, avec des éléments fonctionnels et techniques susceptibles d’évoluer en cours de projet. Objectifs principaux Vérifier l’exhaustivité et la cohérence des données migrées depuis l’ancien système Contrôler la qualité des données produites par la nouvelle solution Sécuriser les usages métiers (pilotage, reporting, analyses) après mise en production Vos missions Stratégie de test & qualité des données Définir une stratégie de recette adaptée au contexte de migration Concevoir des scénarios de test et les jeux de données associés Formaliser des règles de contrôle couvrant : les volumes de données, la cohérence entre sources, la qualité fonctionnelle des données restituées Mise en œuvre et exécution de la recette Mettre en place et automatiser les contrôles de données lorsque cela est pertinent Réaliser les tests de validation (techniques et fonctionnels) Analyser, qualifier et documenter les anomalies détectées Évaluer les impacts et risques métier associés aux écarts constatés Coordination & pilotage Organiser et piloter la phase de recette en lien avec les équipes IT, les métiers et l’éditeur de la solution Assurer un suivi régulier de l’avancement via des indicateurs clairs (KPI) Produire un reporting hebdomadaire incluant alertes, risques et points nécessitant arbitrage Documenter l’ensemble des travaux (plans de test, règles de contrôle, constats, risques)
Mission freelance
Directeur de projet Data
Groupe Ayli
Publiée le
Apache NiFi
Azure Kubernetes Service (AKS)
Databricks
1 an
500-680 €
Saint-Denis, Île-de-France
Directeur de projet Data 🎯 Contexte Dans le cadre d’un programme majeur de transformation digitale au sein d’un grand groupe du secteur transport / infrastructures, une plateforme Data centralisée est au cœur des enjeux de collecte, traitement et valorisation des données à grande échelle. Cette plateforme supporte des cas d’usage critiques liés à la maintenance, l’ingénierie, la supervision et l’optimisation des opérations, avec des volumes importants et des données complexes (dont données 3D). Nous recherchons un Architecte Data senior avec une forte posture de pilotage, capable d’être force de proposition sur l’architecture cible et d’accompagner l’évolution de la plateforme existante. 🧩 Votre rôle Vous interviendrez au sein d’un programme transverse regroupant équipes techniques, métiers et gouvernance Data, avec pour missions principales : La conception et l’évolution de l’architecture Data cible Le pilotage des travaux de transformation et de migration de la plateforme La coordination des acteurs techniques et métiers La garantie des exigences de sécurité, gouvernance et conformité réglementaire (RGPD) 🛠️ Responsabilités Analyse et cadrage de l’architecture cible (scénarios, phasage) Spécification de la plateforme Data et rédaction des dossiers d’architecture HLD / LLD Définition de patterns d’ingestion, de traitement et d’exposition des données Pilotage de la chaîne Data de bout en bout (ingestion → stockage → traitement → exposition) Suivi de projet : planning, risques, coûts, indicateurs, reporting Cadrage FinOps Coordination transverse avec les équipes techniques, sécurité et gouvernance Mise en place de tableaux de bord de supervision (DataDog) 🔧 Environnement technique Cloud : Microsoft Azure Plateforme Data : Databricks, Azure Data Lake Gen2 Ingestion : Apache NiFi, AKS, Zookeeper Traitement : Spark / Python Bases de données : PostgreSQL BI : Power BI Supervision : DataDog Méthodologie : Agile / Scrum
Mission freelance
Architecte Data Cloudera
HOXTON PARTNERS
Publiée le
Cloudera
6 mois
500-580 €
Paris, France
🚀 Architecte Plateforme Data – Cloudera | Big Data | Oracle | Talend 📍 Paris 1er arrondissement 📅 Démarrage : ASAP 📆 Durée : Mission longue ⚠️ Profils 100% freelance uniquement (pas de portage salarial) Dans le cadre d’un nouveau projet stratégique, nous recherchons un Architecte Plateforme Data pour intervenir chez un client basé dans le 1er arrondissement de Paris 🎯 Votre mission En tant qu’Architecte Data, vous serez responsable de la conception, de l’optimisation et de l’évolution de la plateforme Big Data. Vos principales responsabilités : Définir l’architecture de la plateforme Cloudera Concevoir et faire évoluer des environnements Big Data Intégrer et optimiser les flux via Talend Assurer l’interopérabilité avec les environnements Oracle Garantir la performance, la sécurité et la scalabilité de la plateforme Accompagner les équipes techniques dans les bonnes pratiques d’architecture 🛠️ Compétences clés Expertise Cloudera Solide expérience en architecture Big Data Bonne maîtrise des environnements Oracle Expérience significative sur Talend Capacité à intervenir sur des environnements complexes et à forts enjeux 👤 Profil recherché Expérience confirmée en tant qu’Architecte Data Forte autonomie Capacité à challenger l’existant et proposer des solutions innovantes Excellentes compétences en communication
Mission freelance
Senior Data Analyst
SILAMIR
Publiée le
Tableau Desktop
Tableau software
1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Mission freelance
DEVELOPPEUR BIG DATA SENIOR
Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Cloudera
Hadoop
12 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes
• Développement et Maintenance : Prendre en charge les évolutions des données à intégrer, effectuer des travaux de "reverse engineering" sur une architecture héritée complexe et optimiser les traitements de la plateforme. • Support et Accompagnement : Assurer le support de niveau 2, accompagner les utilisateurs, faire appliquer les consignes et rédiger des guides de processus. • Encadrement Technique : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les profils juniors (stagiaires ou alternants). • Pilotage et Qualité : Garantir la tenue des délais de livraison dans un contexte de production exigeant, assurer la maintenabilité et l'exploitabilité de la plateforme, et structurer l'activité via des outils de suivi (type JIRA).
Offre d'emploi
Data Engineer Azure Data Factory
adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX
1 an
45k-55k €
500-600 €
Île-de-France, France
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Mission freelance
Data Engineer senior - DATA et IA
Calytis
Publiée le
AWS Cloud
CI/CD
MLOps
12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.
Offre d'emploi
Data Engineer
█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
DevOps
Meulan-en-Yvelines, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra
1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Mission freelance
Product Owner IA / Data
LeHibou
Publiée le
Data science
IA
IA Générative
12 mois
400-550 €
Croix, Hauts-de-France
Missions principales 2.1 Vision & stratégie produit IA - Porter la vision produit des solutions d’IA en lien avec les équipes métier. - Identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers. - Prioriser les projets en fonction de la valeur business et de la faisabilité (technique, réglementaire, ROI). 2.2 Gestion du backlog & priorisation - Être garant de la priorisation des initiatives Data Science/IA. - Traduire les besoins métier en features et user stories. - Alimenter, structurer et maintenir le backlog produit. - Arbitrer les priorités selon la valeur ajoutée attendue, le feedback utilisateur et les contraintes (réglementaires, techniques, ROI). - Maximiser l’impact business de chaque sprint livré. 2.3 Pilotage du delivery agile - Piloter la delivery des projets IA en méthodologie agile. - Organiser et animer les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives). - Suivre l’avancement des développements et lever les obstacles en coordination avec les autres départements. - Veiller au respect des engagements de qualité, budget et délais. - Communiquer de manière proactive sur l’avancement auprès des sponsors et du management. 2.4 Coordination Métiers–Data–IT - Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. - Co-construire les solutions avec les experts métier et favoriser leur adoption. - Intégrer les contraintes techniques avec les équipes Data/IT pour une implémentation fluide des solutions IA. 2.5 Crédit & Risque (Scoring) – Use cases Machine Learning - Piloter les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). - En lien avec les équipes Risque et Validation, concevoir et suivre les projets d’optimisation des scores existants et le développement de nouveaux modèles. - Explorer des approches innovantes (nouvelles données, algorithmes avancés). - S’assurer que les modèles contribuent à la maîtrise/stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. - Veiller à la mise en production et au monitoring des modèles (détection de dérive, recalibrage) en collaboration avec les Data Scientists et Analystes Risque. 2.6 IA générative & agents - Explorer et déployer les cas d’usage liés à l’IA générative pour transformer les processus internes et la relation client. - Piloter des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). - Lancer des MVP d’agents pour : • Automatiser l’analyse de documents complexes. • Assister les équipes internes (Audit, Marketing, etc.). • Enrichir le support client. - Définir les objectifs et indicateurs de succès de ces projets. - Superviser les étapes de prototypage et de déploiement en production. - Mettre en place des architectures agentiques robustes pour ces solutions. - Évaluer et optimiser les performances des agents (cohérence, pertinence, diversité des réponses), en s’appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). - Garantir un usage responsable, sécurisé et efficace de l’IA générative pour l’entreprise. Missions génériques associées au rôle : - Mener la livraison d’un produit de qualité répondant aux attentes des clients et équipes métiers. - Élaborer la vision produit avec les utilisateurs et les équipes techniques (UX, marketing) et être responsable de la conception du produit. - À chaque sprint, vérifier que la direction prise est la bonne, que les priorités métier sont respectées et que la qualité des livrables est adéquate. - Identifier les attentes des utilisateurs et les bénéfices attendus du produit. - Réaliser des benchmarks des solutions du marché, notamment chez les concurrents. - Élaborer les fonctionnalités attendues et les prioriser dans le backlog produit. - Travailler en collaboration avec l’UX sur le parcours client cible et sa déclinaison en trajectoire (MVP). - Partager la vision produit avec les équipes de développement agile. - Définir et planifier les releases/versions du produit. - Créer chaque fonctionnalité retenue sous forme de user story suffisamment petite pour être implémentée en une itération, avec critères d’acceptation clairs. - Comprendre les "Technical Stories" (besoins non fonctionnels) et les "Defect Stories" proposées par les équipes de développement. - Répondre aux demandes de clarification des équipes de développement sur les stories en cours. - Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master. - Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et porter la voix métier avec persuasion. - Accepter ou refuser les stories implémentées par les équipes de développement. - Réaliser ou organiser les tests utilisateurs/métiers des versions (avec une équipe de recette si projet complexe). - Le cas échéant, animer une équipe de Business Analysts, rédacteurs et testeurs métier lorsque le backlog le nécessite. - Récolter les feedbacks utilisateurs et évaluer le fonctionnement des versions précédentes en production. - Assurer la non-régression des nouvelles versions. - Manager des équipes de rédaction et de recette de user stories pour des projets agiles d’envergure. - Co-construire et animer le dispositif de conduite du changement avec un PMO Deploy. - Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs.
Mission freelance
Product Owner data
ESENCA
Publiée le
API
Gouvernance
Kanban
1 an
Lille, Hauts-de-France
Attention : Mission dans la région lilloise, la présence sur site est obligatoire 🎯 Objectif du poste Piloter et faire évoluer une plateforme de data streaming transverse, destinée à faciliter la production, la consommation et la gouvernance des flux de données en temps réel au sein d’un écosystème digital complexe. Le rôle vise à garantir la valeur produit , la fiabilité des flux critiques et une excellente expérience développeur , tout en assurant l’alignement avec la stratégie produit globale. 🧩 Missions principalesProduct Management Définir et piloter la stratégie produit de la plateforme de streaming de données Gérer et prioriser le backlog Jira en cohérence avec la vision produit Structurer et affiner les Epics, User Stories et tâches techniques en collaboration avec les équipes produit et techniques Assurer les activités de discovery, delivery et post-delivery (suivi de la valeur, feedback, amélioration continue) Construire et partager la roadmap produit , les indicateurs de performance et les reportings associés Coordination & collaboration Travailler au sein d’une équipe cross-fonctionnelle (développeurs, data engineers, experts techniques) Être l’interface entre les équipes techniques, les produits consommateurs et les parties prenantes métiers Faciliter l’adoption de la plateforme à l’échelle de l’organisation Plateforme & écosystème Contribuer à la conception et à l’évolution de produits tels que : Outils de gestion et de monitoring de clusters de streaming APIs de streaming d’événements (internes et exposées) Outils de mock et de replay de flux de données Guidelines, standards et bonnes pratiques autour du streaming et de l’event-driven 🛠 Compétences requisesHard skills Expertise en Product Management (discovery, delivery, suivi post-livraison) Expérience confirmée sur des produits complexes , techniques et fortement intégrés (APIs, plateformes) Solide compréhension des architectures distribuées et des flux de données Maîtrise des frameworks agiles (Scrum, Kanban) Capacité à prioriser un backlog selon la valeur business , la criticité sécurité/stabilité et les métriques produit Connaissances approfondies en Data Streaming , Kafka, Event-Driven Architecture, Data Mesh Bonne compréhension des enjeux de monitoring et gouvernance des données Anglais professionnel courant (impératif) Atouts appréciés Familiarité avec les outils d’ observabilité , data lineage, schema registry Notions de sécurité des flux de données (authentification, autorisation, chiffrement, conformité réglementaire) Excellentes capacités de reporting et de présentation (vision produit, roadmap, avancement)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Client final, ESN et société de portage filiale de l'ESN
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Mon ESN me demande de baisser mon TJM de 100 euros
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Root-MENU ressemble à une arnaque
- Un Avis sur votre activité
1620 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois