Job position

Contractor
As soon as possible
12 months
540-600 €
5 to 10 years experience
Hybrid
Marseille, Provence-Alpes-Côte d'Azur
Published on 13/01/2026 - Updated on 15/01/2026

Share this job

L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP, basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg, avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles.

Missions principalesArchitecture & Data Platform

  • Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg

  • Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition)

  • Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles

  • Contribuer à l’internalisation de la plateforme data (design, outillage, bonnes pratiques)

Data Engineering

  • Développer des pipelines d’ingestion pour :

    • Données capteurs issues de drones

    • Données tabulaires associées

  • Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément)

  • Garantir la disponibilité rapide des données après les vols d’essai

  • Mettre en place des contrôles de qualité, traçabilité et gouvernance des données

Data & Analytics

  • Préparer les données pour des cas d’usage de maintenance prédictive

  • Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning)

  • Collaborer avec les équipes data science / métier

Sécurité & conformité

  • Travailler dans un contexte habilitable (données sensibles, clients spécifiques)

  • Appliquer les contraintes de sécurité et de cloisonnement des données

Candidate profile

Profil recherchéExpérience

  • 5+ ans d’expérience en Data Engineering / Data Architecture

  • Expérience confirmée sur des architectures Data Lake / Lakehouse

  • Pratique de volumes de données importants et ingestion en rafale

  • Expérience cloud, idéalement GCP

Compétences clés

  • Solide compréhension des formats de tables analytiques modernes (Iceberg, Delta, Hudi)

  • Modélisation de données et performance

  • Connaissance des enjeux de sécurité et de données sensibles

  • Capacité à concevoir des briques autonomes et réutilisables

Soft skills

  • Autonomie et sens de l’architecture

  • Capacité à travailler avec des équipes pluridisciplinaires

  • Esprit pragmatique, orienté produit et industrialisation

Contraintes & informations pratiques

  • Localisation : Marseille

  • Télétravail : 2 jours sur site / 3 jours TT

  • Langue : Français requis

  • Démarrage : ASAP

Working environment

Environnement techniqueCloud & Data

  • GCP (Cloud Storage, BigQuery, services data managés ou custom)

  • Apache Iceberg

  • Data Lake / Lakehouse

  • Architecture Médaillon

Langages & outils

  • Python / SQL (fortement attendus)

  • Rust : gros plus, notamment pour des briques performantes ou bas niveau

  • Traitement batch / streaming (selon les flux)

  • CI/CD, Infrastructure as Code (selon maturité)

Apply to this job!

Find your next career move from +900 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Data Architect GCP

Atlas Connect

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2026 © Free-Work / AGSI SAS
Follow us