Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 118 résultats.
CDI

Offre d'emploi
TEST LEAD DATA

TECOS
Publiée le
ISTQB

40k-50k €
Paris, France
Je recherche un Test Lead Data pour un démarrage ASAP Le Test Lead intervient transversalement sur : Mission principale : La définition et le pilotage de la stratégie de tests Data L’organisation et le suivi des campagnes (intégration, qualité des données, non-régression, automatisation) La coordination des équipes internes/externes L’amélioration continue du dispositif de tests, en lien avec les enjeux Data, Qualité et Métier. Responsabilités Encadrer les activités de tests sur le périmètre (collecte, conception, exécution). Élaborer les plans de tests, scénarios, critères d’entrée/sortie, règles de couverture Garantir la qualité et la complétude du référentiel de tests sous Xray. Identifier les risques qualité, périmètres sensibles, flux critiques et dépendances Data Superviser les tests d’intégration Data, migration, qualité, conformité Définir les KPI de pilotage et assurer le reporting régulier. Automatisation Définir la roadmap d’automatisation (API, traitements Data, tests récurrents). Piloter la mise en œuvre des scripts automatisés et l’industrialisation Assurer la coordination avec les équipes (développement, Automatisation et les métiers) Contribuer à l’amélioration continue du process de tests. Compétences techniques requises Très bonne compréhension des architectures Data et des modèles relationnels. Expérience confirmée sur des projets Data : migration, transformation, fédération de données. Bonne connaissance des problématiques de qualité des données (DQ rules, profiling, gestion des exceptions). Connaissance des outils Data du marché ( souhaitable ) : DataSmart, Snowflake, outils de Data Quality & Data Governance Lineage, Catalog, règles métiers, Data Quality dashboards Solide maîtrise de la gestion de tests sous Xray (planification, exécution, reporting). Maîtrise des pratiques de tests ISTQB (conception, exécution, suivi). Connaissance des métriques et KPI de suivi (avancement, couverture, anomalies). Outils & technologies Informatica (ETL / DQ / MDM / Data Management). (souhaitable) SQL (requêtes complexes, validation de transformations, analyse d’écarts). APIs / services (tests d’intégration, automatisation). Notions de pipelines CI/CD et outillages d’automatisation Outils de gestion de test (Jira Xray). Soft skills Capacité à animer des ateliers avec développeurs et métiers. Aisance dans les échanges avec les PO, Data Owners, équipes techniques, métiers Savoir alerter, prendre des décisions et prioriser selon les risques. Autres : Profil : Sénior Localisation : IDF Date de démarrage : ASAP
Freelance

Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite

CAT-AMANIA
Publiée le
kelia
Python

2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance
CDI

Offre d'emploi
Data Ops Engineer

VISIAN
Publiée le
Ansible
DevOps

1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Freelance

Mission freelance
AMOA Microsoft Dynamics 365 - temps plein présentiel Melun

Mon Consultant Indépendant
Publiée le
AMOA

3 mois
520-550 €
Paris, France
La mission est en 100% présentiel et située proche de Melun (77). Lieu accessible via le RER D (environ 1h de Chatelet) ou voiture (environ 45 min / 1h de Paris) Merci de ne postuler que si vous avez réellement la possibilité d'effectuer la mission à temps plein en 100% présentiel proche de Melun (77). Durée : 3 mois renouvelables (Visibilité long terme) Rythme : 5 jours/semaine sur site Opportunité : Ouverture vers un CDI possible en fin de mission, ou même au démarrage en cas d'accord réciproque Le Contexte : Nous recherchons un(e) freelance Consultant(e) AMOA expert sur l'écosystème Microsoft Dynamics 365 (D365) pour accompagner l'évolution de nos systèmes d'information. Vous jouerez un rôle charnière entre les besoins métier (Administration des Ventes, Supply Chain) et les équipes techniques. Vos Responsabilités : En immersion totale avec les équipes opérationnelles, vos missions principales seront : Analyse & Cadrage : Recueillir et challenger les besoins auprès des directions métier. Rédiger les expressions de besoins et les spécifications fonctionnelles détaillées. Pilotage de la Qualité : Concevoir les plans de tests fonctionnels et piloter les phases de recette utilisateur (UAT). Accompagnement au Changement : Former les utilisateurs finaux sur l'outil D365 et produire la documentation support. Suivi Opérationnel : Gérer les tickets et les demandes d'évolution (Change Requests) via vos outils de suivi habituels. Agilité : Évoluer dans un environnement Agile/DevOps pour garantir une livraison fluide et itérative. Profil Recherché : Vous êtes le candidat idéal si : Vous maîtrisez D365 sur le bout des doigts. Vous avez une solide connaissance métier de l' ADV et, idéalement, de la Supply Chain (gestion de stock, plateformes logistiques). Vous êtes un habitué des méthodologies Agiles et des cycles de vie logicielle sous DevOps . Expertise outils : Parfaite maîtrise d' Excel et aisance avec les outils de ticketing. Soft Skills : Pédagogue, doté d'un excellent relationnel et d'une grande capacité d'écoute.
CDI

Offre d'emploi
Data Analyst Lead - Expérience Retail obligatoire F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
JIRA
Python

Montrouge, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyst confirmé

Codezys
Publiée le
Data visualisation
PySpark
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Freelance

Mission freelance
Data Analyst – Data scientist / BI – secteur bancaire (F/H)

CELAD
Publiée le

1 an
450-500 €
Limonest, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Vous aimez transformer la donnée en décisions concrètes ? Vous avez envie d’intervenir à la fois sur des sujets BI structurants et sur des problématiques digitales orientées parcours clients ? Ici, vous ne serez pas “juste” producteur de tableaux de bord. Vous interviendrez au cœur des enjeux métiers, en lien direct avec les équipes business, marketing et digitales, avec un réel impact sur le pilotage de la performance. Vous travaillerez sur des environnements robustes (Teradata, MicroStrategy) tout en contribuant à des sujets plus orientés tracking et analyse de parcours web. Une vision complète de la chaîne Data. Pourquoi nous avons besoin de vous ? Le contexte est clair : renforcer le pilotage Data sur des activités BI historiques et accompagner le développement des parcours digitaux. Votre rôle sera double : - Structurer et fiabiliser les indicateurs de pilotage. - Exploiter la donnée digitale pour optimiser les parcours utilisateurs. Autrement dit : rendre la donnée utile, actionnable et comprise par les métiers. Concrètement, ce que vous ferez au quotidien : Sur les activités BI : - Vous travaillerez main dans la main avec les Business Analystes pour identifier les besoins Data lors d’ateliers d’affinage. - Vous utiliserez SQL (environnement Teradata) pour calculer des indicateurs fiables et les intégrer dans des pipelines de restitution normés. - Vous construirez des tableaux de bord sous MicroStrategy afin de permettre aux équipes métiers de piloter leur activité en autonomie. - Vous présenterez vos analyses et expliquerez vos choix méthodologiques. L’objectif n’est pas seulement de produire des chiffres, mais de faire comprendre ce qu’ils signifient. - Vous contribuerez également à diffuser les bonnes pratiques autour de la gouvernance Data (Data Management, Data Privacy). Sur les activités Data Digital (tracking & analyse) : - Avec les squads métiers, vous identifierez les besoins de tracking sur les parcours utilisateurs. - Vous rédigerez les spécifications de marquage et participerez aux phases de recette. - Vous exploiterez les données issues d’outils comme Tag Commander, Piano Analytics ou Cosmo Survey pour construire des tableaux de bord et réaliser des analyses marketing. - Vous serez force de proposition : votre analyse devra déboucher sur des pistes concrètes d’optimisation des parcours web.
Freelance
CDI

Offre d'emploi
Lead Data Analyst Supply Chain (500€ max)

BEEZEN
Publiée le
SQL

1 an
40k-50k €
350-500 €
Île-de-France, France
En vous appuyant sur vos compétences analytiques, vous aurez pour principales missions : ● Structurer et mener de bout en bout des analyses ad-hoc en totale autonomie (cadrage, extraction des données, traitement, restitution), avec une approche scientifi que rigoureuse ● Mettre en place des KPI et créer des reportings / dashboards interactifs ● Partager les résultats d’analyses / présenter les outils construits à des interlocuteurs métier (jusqu’au top management Supply Chain) en faisant preuve de conviction tout en identifi ant les limites ou biais du travail réalisé Vos compétences : ● Excellentes capacités analytiques et statistiques, capacité à comprendre les principes de modèles data science ● Très bonnes capacités dans la manipulation de grandes volumétries de données ; maîtrise d’un langage de requêtage des données (SQL, BigQuery), d’outils de datavisualisation (Tableau, Google Looker Studio) ; la maîtrise de Python et GitLab est un plus
Freelance
CDI

Offre d'emploi
Analyste DATA et DATASCIENCE

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Bordeaux, Nouvelle-Aquitaine
Prestation d'analyse DATA et DATASCIENCE Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel Définition de la prestation attendue : Rattaché à l'équipe Analyse de la donnée, l’intervenant aura pour principales missions : Mise en oeuvre de cas d'usage métiers par croisement de la donnée (ciblage, analyse de donnée ou datascience ) Développement et maintenance de produits DATA réutilisables Publication des résultats d'analyse avec de la DATAVIZ Respect des normes et bonnes pratiques au sein de l’équipe Accompagnement et acculturation des équipes métiers ou autres Python, Pyspark,SQL,Dataviz, Datascience Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports)
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance
CDI

Offre d'emploi
Data Engineer

NEOLYNK
Publiée le
Google Cloud Platform (GCP)

3 mois
Paris, France
Prestation du data ingénieur En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE

HAYS France
Publiée le
DBT
Semarchy
Snowflake

3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
CDI

Offre d'emploi
Data Analyst – Data scientist / BI – secteur bancaire (F/H)

CELAD
Publiée le

45k-52k €
Limonest, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Vous aimez transformer la donnée en décisions concrètes ? Vous avez envie d’intervenir à la fois sur des sujets BI structurants et sur des problématiques digitales orientées parcours clients ? Ici, vous ne serez pas “juste” producteur de tableaux de bord. Vous interviendrez au cœur des enjeux métiers, en lien direct avec les équipes business, marketing et digitales, avec un réel impact sur le pilotage de la performance. Vous travaillerez sur des environnements robustes (Teradata, MicroStrategy) tout en contribuant à des sujets plus orientés tracking et analyse de parcours web. Une vision complète de la chaîne Data. Pourquoi nous avons besoin de vous ? Le contexte est clair : renforcer le pilotage Data sur des activités BI historiques et accompagner le développement des parcours digitaux. Votre rôle sera double : - Structurer et fiabiliser les indicateurs de pilotage. - Exploiter la donnée digitale pour optimiser les parcours utilisateurs. Autrement dit : rendre la donnée utile, actionnable et comprise par les métiers. Concrètement, ce que vous ferez au quotidien : Sur les activités BI : - Vous travaillerez main dans la main avec les Business Analystes pour identifier les besoins Data lors d’ateliers d’affinage. - Vous utiliserez SQL (environnement Teradata) pour calculer des indicateurs fiables et les intégrer dans des pipelines de restitution normés. - Vous construirez des tableaux de bord sous MicroStrategy afin de permettre aux équipes métiers de piloter leur activité en autonomie. - Vous présenterez vos analyses et expliquerez vos choix méthodologiques. L’objectif n’est pas seulement de produire des chiffres, mais de faire comprendre ce qu’ils signifient. - Vous contribuerez également à diffuser les bonnes pratiques autour de la gouvernance Data (Data Management, Data Privacy). Sur les activités Data Digital (tracking & analyse) : - Avec les squads métiers, vous identifierez les besoins de tracking sur les parcours utilisateurs. - Vous rédigerez les spécifications de marquage et participerez aux phases de recette. - Vous exploiterez les données issues d’outils comme Tag Commander, Piano Analytics ou Cosmo Survey pour construire des tableaux de bord et réaliser des analyses marketing. - Vous serez force de proposition : votre analyse devra déboucher sur des pistes concrètes d’optimisation des parcours web.
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Data Manager

Tenth Revolution Group
Publiée le
DBT
Snowflake

1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
3118 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous