Le poste Data Architect GCP
Partager cette offre
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP, basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg, avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles.
Missions principalesArchitecture & Data Platform
Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg
Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition)
Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles
Contribuer à l’internalisation de la plateforme data (design, outillage, bonnes pratiques)
Data Engineering
Développer des pipelines d’ingestion pour :
Données capteurs issues de drones
Données tabulaires associées
Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément)
Garantir la disponibilité rapide des données après les vols d’essai
Mettre en place des contrôles de qualité, traçabilité et gouvernance des données
Data & Analytics
Préparer les données pour des cas d’usage de maintenance prédictive
Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning)
Collaborer avec les équipes data science / métier
Sécurité & conformité
Travailler dans un contexte habilitable (données sensibles, clients spécifiques)
Appliquer les contraintes de sécurité et de cloisonnement des données
Profil recherché
Profil recherchéExpérience
5+ ans d’expérience en Data Engineering / Data Architecture
Expérience confirmée sur des architectures Data Lake / Lakehouse
Pratique de volumes de données importants et ingestion en rafale
Expérience cloud, idéalement GCP
Compétences clés
Solide compréhension des formats de tables analytiques modernes (Iceberg, Delta, Hudi)
Modélisation de données et performance
Connaissance des enjeux de sécurité et de données sensibles
Capacité à concevoir des briques autonomes et réutilisables
Soft skills
Autonomie et sens de l’architecture
Capacité à travailler avec des équipes pluridisciplinaires
Esprit pragmatique, orienté produit et industrialisation
Contraintes & informations pratiques
Localisation : Marseille
Télétravail : 2 jours sur site / 3 jours TT
Langue : Français requis
Démarrage : ASAP
Environnement de travail
Environnement techniqueCloud & Data
GCP (Cloud Storage, BigQuery, services data managés ou custom)
Apache Iceberg
Data Lake / Lakehouse
Architecture Médaillon
Langages & outils
Python / SQL (fortement attendus)
Rust : gros plus, notamment pour des briques performantes ou bas niveau
Traitement batch / streaming (selon les flux)
CI/CD, Infrastructure as Code (selon maturité)
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Architect GCP
Atlas Connect