Trouvez votre prochaine offre d’emploi ou de mission freelance Data Mesh

Ce qu’il faut savoir sur Data Mesh

Data Mesh est une approche décentralisée de la gestion des données d'entreprise. Elle permet de créer une architecture de données flexible, évolutive et fiable en mettant l'accent sur la gouvernance des données et la collaboration entre équipes. Grâce à Data Mesh, les entreprises peuvent améliorer la qualité et la fiabilité de leurs données, tout en réduisant les coûts et les délais de développement. Cette approche favorise l'utilisation de frameworks et de langages de développement adaptés aux besoins spécifiques de chaque équipe, ce qui se traduit par une amélioration des performances et de la productivité.

Votre recherche renvoie 27 résultats.
Freelance

Mission freelance
Data Architect

Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality

3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Freelance

Mission freelance
Chief Data Officer de transition - Mission longue - Grand groupe Retail

KatchMe Consulting
Publiée le
AWS Cloud
Databricks

12 mois
900-1 200 €
Paris, France
Nous recherchons un CDO (Chief Data Officer) de transition afin d'entamer une transformation Data pour notre client, un acteur du Retail de premier plan. Contexte et enjeux: Dans un contexte de transformation stratégique, l’entreprise souhaite faire de la Data un levier central de performance et de décision. L’enjeu est triple : Mettre en place une approche Data Mesh pour responsabiliser les métiers sur leurs données Rendre les équipes métiers autonomes dans l’usage et la valorisation de la data Moderniser l’écosystème Data via une migration vers AWS couplé à une plateforme Databrick Vos responsabilités clés seront notamment: Définir la vision et la roadmap Data alignées avec la stratégie globale de l’entreprise Déployer une organisation Data Mesh (Data Products, ownership métiers, gouvernance fédérée) Accompagner les métiers vers une culture data-driven et le self-service analytique Piloter la construction et la migration de la plateforme Data sur AWS / Databricks Garantir la qualité, la sécurité, la conformité et la maîtrise des coûts de la Data Structurer, recruter et animer les équipes Data & Data Platform (une 100aine de personnes) en lien étroit avec le DSI Stakeholders management: vous serez le référent ComEx Data en lien avec les VP/C-Level de l'entreprise Si vous vous retrouvez dans cette mission, envoyez-nous votre CV, nous reviendrons vers vous sous 24h
Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Data governance

1 an
40k-45k €
400-690 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite s'appuyer sur une expertise en architecture data ou data modeling afin de : Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l'entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. Définition et application des principes d'architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d'expertise Data. Le périmètre d'intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Freelance

Mission freelance
Data Analyst Métier (H/F)

HOXTON PARTNERS
Publiée le
PowerBI
SQL

12 mois
Guyancourt, Île-de-France
Data Analyst Métier (H/F) Dans un contexte de transformation data au sein d’une DSI, nous recherchons un Data Analyst Métier pour accompagner les équipes métier dans la définition, la valorisation et la gouvernance de la donnée, au sein d’un environnement data mesh et on-prem . Vos missions Analyser et valoriser les données à des fins business (analyses exploratoires, KPI, recommandations). Collecter, structurer et fiabiliser des données issues de sources multiples (ERP, MES, PLM, etc.). Concevoir des produits de données (PDE / PDU / PDA) et contribuer aux pipelines data. Accompagner les métiers : compréhension des besoins, indicateurs, pédagogie data. Contribuer à la qualité et à la gouvernance des données (OpenMetaData, SLO, règles d’accès). Environnement & compétences SQL avancé, Power BI (modélisation, DAX), Dataiku, Excel. Bonne compréhension des enjeux métier et culture de la performance. Rigueur, pédagogie, excellent esprit d’analyse et de synthèse. Contexte secteur défense : exigences fortes en sécurité, traçabilité et “need-to-know”.
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI

Offre d'emploi
Expert Dataviz - F/H

AVANISTA
Publiée le

France
Depuis 2012, nous mettons notre expertise au service des secteurs de l’IT et l’Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d’une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert Dataviz au sein de nos équipes pour l’un de nos clients. Dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l’équipe « Data4Ops », au sein du Domaine d’Expertise « Automatisation et Observabilité ». Cette équipe a la charge de structurer les données dites « opérationnelles » du client, à savoir les données utiles à l’ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data (basée sur les principes/concepts Data Mesh) et en relation avec le PO Data4Ops et le PM (Product Manager) Observabilité La transformation des SI de nos Clients vers des architectures modulaires, type micro-services,l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de données devenues très hétérogènes, dispersées et silotées du fait de l’organisation (équipes applicatives et techniques multiples et dispersées). Prenant en compte ce cadre, votre mission sera plus spécifiquement de collecter, manipuler et valoriser de manière automatique les données complexes de notre SI en visualisations claires, interactives et exploitables pour faciliter la prise de décision stratégique et opérationnelle par le biais de développement des Dashboards et modélisation et mise en place de KPI. Contexte technique Outils de visualisation : maîtrise avancée de Power BI, Grafana Langages de programmation : Python ou Java pour le traitement de données, SQL pour les requêtes Environnement technique : bases de données SQL et NoSQL principalement dans un contexte « On Premise » : o Moyens de stockage tels que la suite Elastic, InfluxDB o Suite de type Data Lakehouse (Spark, MinIO, Stockage S3, Iceberg, Trino) o Solution SGBD “Classique”: PostgreSQL Missions Pour réaliser la mission, vous serez amené à contribuer sur : - La conception via le recueil des besoins, la réalisation des spécifications et de la documentation liée - Le développement de visualisations : création de tableaux de bord interactifs, de graphiques dynamiques et de rapports visuels adaptés aux différents besoins métiers - L’analyse et le traitement des données : Définition et développement de KPI, pour cela, si nécessaire, extraction, transformation et analyse de données provenant de sources multiples (bases de données, APIs, etc.), de façon automatique Ceci en collaboration transversale étroite avec les différentes équipes pour comprendre les besoins, définir les spécifications, assurer le suivi, et garantir la cohérence des livrables
CDI

Offre d'emploi
Urbaniste Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL

54k-58k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Expertise DataViz et DataScience

Codezys
Publiée le
Azure
CI/CD
Data science

12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
CDI

Offre d'emploi
Consultant·e Data Engineer – Senior / Confirmé·e

█ █ █ █ █ █ █
Publiée le
CI/CD
Python
SQL

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

27 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous