Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality
Votre recherche renvoie 52 résultats.
Offre d'emploi
Consultant MDM Informatica (H/F) - LILLE
Publiée le
Azure
Informatica
Java
36 mois
40k-45k €
400-430 €
Lille, Hauts-de-France
Contexte et Environnement Nous recherchons, pour le compte de l’un de nos clients dans le secteur bancaire, un Consultant confirmé en MDM (Master Data Management) afin d’intervenir au sein de la squad Customer Knowledge, en charge du référentiel Client et Contrats du SI. Un projet stratégique de refonte du référentiel clients et contrats est actuellement en cours, avec une mise en production prévue pour 2026. La mission s’inscrit dans une double dynamique : Maintenir et faire évoluer la solution actuelle basée sur Informatica MDM Contribuer activement à la préparation du nouveau dispositif autour de l’outil STEP Missions principales Le consultant interviendra sur l’ensemble du cycle de vie du référentiel client et contrat, en lien avec les équipes IT et les métiers. Ses responsabilités comprendront notamment : 1. Maintenance et support du MDM existant Assurer la gestion des incidents et le support technique sur le MDM Informatica. Analyser les anomalies et développer les correctifs nécessaires. Mettre en œuvre des évolutions techniques ou fonctionnelles selon les besoins. Participer aux cadrages de projets liés au référentiel client et contrats. 2. Contribution au projet de refonte du référentiel Participer à la reprise et migration des données du MDM Informatica vers le nouvel outil STEP. Adapter les scripts de reprise et assurer les contrôles post-migration. Collaborer avec les équipes projet sur les aspects data quality, intégration, et performance. Environnement technique : MDM / Data Quality : Informatica MDM 10.3, Informatica Data Quality (IDQ 10.2) Bases de données : Oracle, SQL Langages / Outils : Shell Unix, APIs, Java Cloud & Search : Azure, Elastic Nouvelle solution : STEP Méthodologie projet : Agile / SAFe
Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Business Analyst / Functional Analyst LNG
Publiée le
Power Platform
SQL
12 mois
Paris, France
Nous accompagnons un acteur majeur du secteur de l’énergie dans le renforcement de son équipe IT dédiée aux activités de trading, d’optimisation et de gestion des flux gaziers et LNG. Dans ce contexte, nous recherchons un Business Analyst Fonctionnel LNG pour intervenir au sein de l’équipe Information Systems d’un périmètre stratégique. Contexte Vous intégrerez une organisation internationale spécialisée dans la gestion des ventes d’énergie, l’optimisation de portefeuilles et la valorisation des produits gaziers et LNG sur les marchés mondiaux. L’équipe LNG opère sur des processus Front-to-Back, en interaction quotidienne avec les traders, le product control et les équipes back-office. Votre rôle Vous intervenez comme référent fonctionnel sur l’ensemble du cycle de vie des opérations LNG, depuis le deal booking jusqu’aux sujets d’ accounting . Vous travaillez principalement sur un ETRM de marché (type Allegro ), ainsi que sur plusieurs applications intégrées du SI. Missions principales • Support et administration de la plateforme ETRM et de ses intégrations (ex : systèmes de scheduling, applications comptables). • Accompagnement des utilisateurs métiers dans leurs opérations quotidiennes : booking, scheduling, calcul de PnL, facturation, interfaces comptables. • Recueil, analyse et formalisation des besoins métiers. • Rédaction des spécifications fonctionnelles et contribution aux évolutions du SI. • Participation à l’amélioration continue, notamment sur la data quality et l’usage de technologies digitales avancées (IA générative, agents IA). Compétences techniques recherchées • Solides bases en C# / .NET pour la personnalisation ou l’automatisation. • Maîtrise de SQL pour la manipulation des données. • Connaissance de Power Platform (Power BI, Power Automate…). Compétences fonctionnelles • Très bonne compréhension du cycle de vie du trading de commodités (Front-to-Back). • Connaissance des processus LNG : opérations, risques, optimisation des flux. Soft skills attendues • Aisance dans des environnements internationaux et dynamiques. • Sensibilité forte aux enjeux de transformation digitale et de qualité des données. • Capacité à travailler en transverse avec des équipes business et IT.
Mission freelance
Expert Qualité des Données CRM
Publiée le
CRM
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Mission freelance
POT8725 - Un Consultant Cybersecurity Expertise – Service Now Architect sur Paris
Publiée le
ServiceNow
6 mois
280-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Consultant Cybersecurity Expertise – Service Now Architect sur Paris. Context - ServiceNow Architect & Cybersecurity expertise needed in Project Service Line – Group Votre intervention aura lieu au sein du pôle Cyber Risk de l’équipe GRC de la Beauty Tech. Votre expertise d’architecte ServiceNow sur les sujets GRC sera sollicitée. -- GRC Tooling in ServiceNow : (70%) Ø En Build Pilotage en mode projet de 2 initiatives afin de définir et accompagner la mise en place de la release annuelle majeure sur 2 thèmes : - La fiche sécurité DP&S - Le plan de contrôle Ø En Run Suivi et pilotage des incidents, bugs, améliorations sur les demandes liées à l’outil ServiceNow (sur le périmètre GRC) en lien avec les équipes de développement et les équipes sécurité. - Conduite du changement -- Cybersecurity in Project : (30%) Ø En Build Conseil et expertise sur le Risk module de ServiceNow Ø En Run Suivi du Run et reportings aux ISSM et RSSI (Nouveaux projets, priorisation en fonction de la criticité des projets, data quality, alerter et remonter les points d’attention) - Support dans les analyses de risques projet
Mission freelance
Data Analyst Informatica
Publiée le
Data analysis
Informatica
PowerBI
1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Data Stewart
Publiée le
Big Data
BigQuery
Cloud
12 mois
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Définition du besoin : Accélération de la transformation digitale avec pour mission de devenir le média numérique de référence pour tous, gratuit, utile et adapté à chacun pour s’informer, se cultiver et se divertir ! La Direction Data est rattachée à la direction du Numérique et met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données afin d’en accélérer son usage. Contribuer à la croissance des offres numériques du groupe via plusieurs plateformes en accompagnant les équipes éditoriales, produit, design et marketing (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension et la prévision des usages ainsi que l’amélioration de l’expérience utilisateurs. Au sein du pôle Data Gouvernance, rattachée au responsable du pôle, la prestation sera affectée au data domaine utilisateurs (caractéristiques socio-démographiques, consentements, abonnements…) et permettra d’être le catalyseur et le facilitateur pour améliorer l’efficience de la mise à disposition de la donnée aux utilisateurs métier. Prestations attendues : Comprendre et mettre en œuvre la stratégie data gouvernance : Gestion de la qualité des données : Recueillir les data quality rules et coordonner leur mise en œuvre Assurer une vision complète des étapes de transformation de la donnée Gérer la mise en œuvre des contrôles qualité Effectuer la mesure des écarts de qualité par rapport aux objectifs fixés Coordonner la remédiation à la qualité des données avec les différents acteurs Participer à la gestion des métadonnées : Animer le remplissage du glossaire métier en collaboration avec les data owners Veiller au respect des règles et politiques établies par les équipes data gouvernance Coordonner la mise en synergie entre dictionnaire de données et glossaire métier Participer à la politique des accès : Contribuer à garantir la sécurité des données en mettant en application la politique des accès aux données Participer à l’application des normes RGPD et jouer le rôle de facilitateur entre les différents interlocuteurs Animer et jouer un rôle moteur dans la mise en œuvre de la stratégie data gouvernance : Communiquer et accompagner : Expliquer et faciliter la compréhension de la politique de gouvernance data en place Créer une synergie collaborative entre les équipes data et les équipes métier Être en support des Data Owners Animer le Data domaine : Lister les données sensibles à mettre sous contrôle S’assurer de la mise aux normes des Data Sets du domaine
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Data Analyst Informatica
Publiée le
BI
ETL (Extract-transform-load)
Informatica
1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
CHEF DE PROJET DATA opérationnel
Publiée le
Dash
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… MISSIONS : Nous recherchons un chef pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM et de la Publicité. Les tâches confiées dans le cadre de la mission couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage publicitaires et d’acquisition en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers Acquisition & Publicité - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers Acquisition & Publicité - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctif pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes. - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes Acquisition & Publicité - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets
Mission freelance
Mission Freelance – Data Steward / Chef de projet Data Gouvernance
Publiée le
Market data
1 an
400-670 €
Île-de-France, France
Télétravail partiel
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Mission freelance
Data Engineer
Publiée le
DBT
Snowflake
12 mois
500-600 €
Paris, France
Télétravail partiel
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.
Offre d'emploi
Consultant(e) Dataiku
Publiée le
Dataiku
DSS
Python
12 mois
Île-de-France, France
Télétravail partiel
Hexateam est un acteur incontournable du conseil et des services en technologies de l'information, accompagnant les organisations dans leur transformation digitale et l'amélioration de leurs performances. Nous recherchons un(e) Consultant(e) Dataiku DSS afin d’accompagner nos clients dans l’optimisation, l’industrialisation et la gouvernance de leurs environnements Dataiku. En tant que Consultant Dataiku, vos responsabilités incluront : Gestion & Monitoring Mettre en place des solutions de monitoring des environnements Dataiku. Suivre et optimiser l’utilisation des ressources et l’activité des utilisateurs. Concevoir des tableaux de bord interactifs pour assurer visibilité et pilotage. Audit & Accompagnement métiers Recueillir les besoins des équipes métiers et comprendre leurs enjeux. Réaliser des audits des projets Dataiku existants. Proposer des recommandations et assurer un accompagnement sur mesure. FinOps & Optimisation Suivre la consommation des ressources (CPU, RAM, bases de données, cloud). Mettre en place des indicateurs et tableaux de bord pour optimiser les coûts. Support & Industrialisation Diffuser les bonnes pratiques de développement sur Dataiku. Accompagner les utilisateurs dans l’industrialisation et la mise en production de leurs projets. Former et sensibiliser les équipes aux concepts et usages avancés de Dataiku. Développer des solutions personnalisées (plugins, automatisations, data quality).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
52 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois