Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality
Votre recherche renvoie 43 résultats.
Offre d'emploi
Chef de projet Data
Publiée le
BigQuery
Data quality
Gestion de projet
6 mois
Île-de-France, France
Télétravail partiel
La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : Maximiser la collecte de données tout en respectant les réglementations en vigueur Développer la connaissance et l’expérience utilisateur Mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’assurer la coordination de l’ensemble de cas d’usages transverses aux pôles Data. Prestations attendues : En interaction avec l’ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité….) , la prestation consistera à : La Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Mangement, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au mangement le suivi de ces sujets transverses Gestion de la coordination inter Data : point d’entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d’assurer la promotion des travaux Expertises demandées pour la réalisation de la prestation : Expériences d’au moins 8 ans en tant que Chef de projet data Expériences d’analyse des données sur un environnement GCP Expériences sur SQL/Big Query Expériences sur les principaux métiers de la data : Collecte, tracking, Dashboard, analyses, personnalisation, data science Expériences sur des données digitales sur l’outil Piano Analytics Capacité à fédérer, coordonner des projets transverses, mener plusieurs sujets en même temps Capacité à synthétiser, et présenter des résultats à des interlocuteurs ayant des niveaux de maturité data différent
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Mission freelance
Chef de Projet Intégration Systèmes – SAP S/4 / Salesforce
Publiée le
Apache Kafka
Datadog
MuleSoft
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un Chef de Projet Intégration Systèmes pour piloter et optimiser les flux Order-to-Cash (commandes, livraisons, factures) entre SAP S/4HANA et Salesforce . Vous serez responsable de la coordination des équipes, de la gouvernance du projet et de la qualité des données, dans un environnement technologique exigeant. Compétences techniques attendues SAP S/4HANA et Salesforce (intégration des flux OTC). Kafka (gestion des événements et des flux). MuleSoft (middleware d’intégration). Snowflake (reporting et data quality). Datadog (monitoring et alertes). Méthodologies Agile / Hybrid .
Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning
Publiée le
Docker
Kubernetes
MLOps
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
1. Conception et Déploiement Industrialisation ML : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles de qualité des données. IaC & Reproductibilité : Gérer l'infrastructure cloud (IaC) et assurer le versioning des modèles, données (Feature Store) et pipelines (ZenML, MLflow). 2. Monitoring et Maintenance Observabilité/Alerting : Implémenter le monitoring (Drift, latence) et configurer des alertes pour les modèles 3P en production. Optimisation : Optimiser les ressources de calcul pour les modèles. 3. Collaboration et Qualité Conseil MLOps : Accompagner les Data Scientists sur les bonnes pratiques MLOps (tests, code quality). Data Quality Gates : Intégrer des validations de schémas et des "Data Quality Gates" dans les pipelines. Data Mesh : Contribuer à l'architecture Data Mesh en traitant les modèles comme des "Data Products".
Mission freelance
Senior Data Engineer GCP
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Mission freelance
INGENIEUR MLOps
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Télétravail partiel
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Mission freelance
Data Ingénieur
Publiée le
18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Data Analyst Senior -Talent Development H/F/NB
Publiée le
Looker Studio
Tableau software
60 jours
400-580 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Vous êtes Data Analyst senior avec une forte sensibilité business et data quality ? Vous aimez transformer des données hétérogènes en outils de pilotage fiables et décisionnels ? Cette mission est faite pour vous 🎯 🧩 Contexte de la mission Dans un environnement international et orienté Talent Development , la mission vise à valoriser les données RH (formation, audits, référentiels…) afin d’éclairer la prise de décision stratégique . Vous interviendrez sur un projet existant , au sein d’une équipe data & métiers, avec un rôle hybride : Business Analyst pour comprendre et formaliser les besoins Data Analyst / Data Specialist pour structurer, consolider et fiabiliser les flux de données multi-pays 🎯 Objectifs de la mission Garantir la qualité, la cohérence et la fiabilité des données Concevoir des modèles de données standardisés Alimenter et optimiser des tableaux de bord décisionnels Faciliter l’exploitation des données par les équipes métiers 🛠️ Responsabilités principales Analyse & Modélisation Concevoir des modèles de données plats (CSV) à partir de sources multiples Définir les règles de transformation, d’agrégation et de mapping Reporting & Data Visualisation Alimenter et optimiser des tableaux de bord (Looker / Tableau) Garantir la pertinence des indicateurs de pilotage Consolidation internationale Collecter, contrôler et harmoniser des données issues de plusieurs pays Gérer les problématiques de formats, UUID et standards de données Qualité & Documentation Mettre en place des contrôles qualité (audit, nettoyage, cohérence) Documenter les règles de gestion, mappings et processus data Approche analytique Traduire les enjeux métiers en analyses claires Produire des recommandations actionnables
Mission freelance
Site Reliability Engineer
Publiée le
Ansible
Azure
Git
12 mois
Paris, France
Télétravail partiel
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Offre d'emploi
Lead Workstation & Support Interne (Intune et Jamf)
Publiée le
Intune
Jamf Pro
MAC
12 mois
Paris, France
Télétravail partiel
À propos de l’entreprise Entreprise tech internationale, pionnière dans son domaine, elle développe des plateformes digitales utilisées par des millions d’utilisateurs à travers le monde. L’environnement est innovant, dynamique et orienté produit, où la technologie est au cœur de l’expérience utilisateur et collaborateur. Le poste Nous recherchons un(e) Lead Workstation & Support Interne pour piloter l’activité de support IT interne et accompagner la transformation digitale des équipes. Vous jouerez un rôle clé au sein de l’équipe Employee Experience (EX) et serez responsable d’une roadmap stratégique 2026 axée sur l’automatisation, l’innovation et l’excellence opérationnelle. Vos missions Leadership & excellence opérationnelle Piloter l’équipe Support & Workstation avec une posture player-coach et hands-on Définir, suivre et optimiser les KPIs de performance Former et accompagner l’équipe sur les nouvelles technologies et bonnes pratiques Gestion du parc informatique Gérer et optimiser un parc multi-OS (macOS / Windows / Linux) via JAMF et Intune Déployer des blueprints de sécurité et améliorer la qualité des données IT Intervenir sur des incidents techniques complexes (niveau 2/3) Projets stratégiques 2026 Automatisation du support : déploiement de solutions IA (ex. Dust AI), catégorisation intelligente des tickets, workflows automatisés (Zapier) Modernisation des outils collaboratifs : migration vers Google Meet / Rooms / Voice et modernisation des salles de réunion Gouvernance SaaS : optimisation des licences et des coûts via des outils de type Torii / Trelica Data quality & inventory management : fiabilisation des données IT
Mission freelance
Expert Qualité des Données CRM
Publiée le
CRM
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Mission freelance
POT8811 - Un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris
Publiée le
ERP
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris Objectif du poste Sécuriser la migration des données et la gouvernance, pour éviter les risques data silencieux qui déstabilisent l’activité après go live. Missions principales • Définir la stratégie de migration (objets, règles, séquences, contrôles). • Piloter nettoyage, dédoublonnage, data quality et réconciliation. • Orchestrer extraction, transformation, chargement et validations. • Mettre en place une gouvernance data avec rôles et responsabilités clairs. Compétences et outils Compétences et outils • Data migration ERP, réconciliation, contrôles et gestion de la pression fin de projet. • Connaissance SAP MDG appréciée. • Approche pragmatique orientée qualité et continuité opérationnelle. Profil recherché • 6 ans et plus sur data migration ERP, idéalement S/4HANA. • Excellente rigueur, leadership transversal.
Offre d'emploi
Senior Data Engineer
Publiée le
180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)
Publiée le
Apache Spark
AWS Cloud
AWS Glue
1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Product Owner sénior DAM et Media Portal AEM H/F
Publiée le
API
3 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous cherchons des experts DAM et Data - capables de construire et piloter les roadmaps de ce produit - autour des enjeux d'intégration de ces outils dans un éco-système de grand groupe et de data quality d'assets (fichiers, médias) en vue de pouvoir les exposer à de multiples consommateurs. DAM - Confirmé - Impératif Data - Confirmé - Impératif AI - Confirmé - Serait un plus AEM - Confirmé - Serait un plus Description détaillée Nous recherchons 1 Product Owner Senior pour piloter l’évolution stratégique des produits DAM et Media Portal , en les orientant vers une gestion avancée et intelligente des données. Au-delà de la gestion centralisée des assets digitaux, la mission consiste à structurer, classifier et exposer efficacement la donnée via des API performantes, à mettre en place une organisation sémantique robuste, et à tirer parti de l’intelligence artificielle pour enrichir les métadonnées clés. Ce rôle est au coeur de la Data Governance et contribue directement à l’efficacité des équipes métiers, au rayonnement international des assets de marque et à l’accélération des workflows omnicanaux. Ce poste est une opportunité de piloter un produit stratégique, en lien avec l’équipe Business Content Strategy, dans un environnement riche et stimulant, avec un fort impact sur les résultats globaux de l’entreprise. Le Product Owner devra driver le delivery et la discovery continus sur son périmètre en se basant sur les objectifs de l’équipe, la vision de la Tribe et les besoins et retours des consommateurs des Features délivrées en travaillant main dans la main avec les Tech Lead du périmètre. L’équipe est composée de 1 Program Manager AEM, 2 PO DAM/MP, 1 Tech Lead, 2 Dev + 1 Solution Architect. Responsabilités principales : - Vision & Stratégie Produit - Structuration et Gouvernance de la Data - Exposition & Intégration via API - Innovation & Enrichissement via IA - Pilotage & Méthodologies Agiles
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Compte Autoentrepreneur - Création ou modification
- Micro-entreprise après EURL ?
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- Projet d’enseignement création de parcours de formation/centre formation
- Besoin de vos avis : projet innovant VTC
43 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois