Job position Data Architect GCP
Share this job
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP, basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg, avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles.
Missions principalesArchitecture & Data Platform
Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg
Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition)
Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles
Contribuer à l’internalisation de la plateforme data (design, outillage, bonnes pratiques)
Data Engineering
Développer des pipelines d’ingestion pour :
Données capteurs issues de drones
Données tabulaires associées
Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément)
Garantir la disponibilité rapide des données après les vols d’essai
Mettre en place des contrôles de qualité, traçabilité et gouvernance des données
Data & Analytics
Préparer les données pour des cas d’usage de maintenance prédictive
Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning)
Collaborer avec les équipes data science / métier
Sécurité & conformité
Travailler dans un contexte habilitable (données sensibles, clients spécifiques)
Appliquer les contraintes de sécurité et de cloisonnement des données
Candidate profile
Profil recherchéExpérience
5+ ans d’expérience en Data Engineering / Data Architecture
Expérience confirmée sur des architectures Data Lake / Lakehouse
Pratique de volumes de données importants et ingestion en rafale
Expérience cloud, idéalement GCP
Compétences clés
Solide compréhension des formats de tables analytiques modernes (Iceberg, Delta, Hudi)
Modélisation de données et performance
Connaissance des enjeux de sécurité et de données sensibles
Capacité à concevoir des briques autonomes et réutilisables
Soft skills
Autonomie et sens de l’architecture
Capacité à travailler avec des équipes pluridisciplinaires
Esprit pragmatique, orienté produit et industrialisation
Contraintes & informations pratiques
Localisation : Marseille
Télétravail : 2 jours sur site / 3 jours TT
Langue : Français requis
Démarrage : ASAP
Working environment
Environnement techniqueCloud & Data
GCP (Cloud Storage, BigQuery, services data managés ou custom)
Apache Iceberg
Data Lake / Lakehouse
Architecture Médaillon
Langages & outils
Python / SQL (fortement attendus)
Rust : gros plus, notamment pour des briques performantes ou bas niveau
Traitement batch / streaming (selon les flux)
CI/CD, Infrastructure as Code (selon maturité)
Apply to this job!
Find your next career move from +900 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Architect GCP
Atlas Connect