KLETA

Job Vacancy Senior Big Data Consultant (Spark on Kubernetes / Airflow / Kubernetes)

Paris

KLETA

Job position

Contractor
Permanent
As soon as possible
3 years
> 10 years experience
Hybrid
Paris, France
Published on 25/09/2025

Share this job

Concevoir, industrialiser et opérer des plateformes data “cloud-native” sur Kubernetes, incluant l’orchestration de pipelines via Airflow sur Kube, afin d’accélérer l’ingestion, le traitement et la mise à disposition de données à grande échelle (batch & near-real time) avec des standards élevés de fiabilité, sécurité et coûts.

Responsabilités clés
  • Architecture & design

    • Définir l’architecture Data on Kube (ingestion, stockage, calcul, orchestration, observabilité).

    • Modéliser et standardiser les data pipelines (DAGs Airflow) et patterns d’infrastructure (Helm/Kustomize).

  • Industrialisation & déploiement

    • Packager et déployer Airflow sur Kube (Helm chart officiel/Astro/OSS) avec HA, RBAC, autoscaling.

    • Mettre en place des opérateurs Airflow (KubernetesPodOperator, SparkK8sOperator, etc.).

    • Automatiser via GitOps (Argo CD/Flux) et CI/CD (GitHub Actions/GitLab CI).

  • Opérations & SRE

    • Gérer la capacité, le autoscaling (HPA/VPA/Karpenter), la QoS et l’optimisation des coûts (requests/limits, Spot/Preemptible).

    • Observabilité end-to-end (logs, metrics, traces) et runbook d’incident (SLA/SLO/SLI).

    • Sécuriser la plateforme (NetworkPolicy, Secrets, IAM, image signing, pod security).

  • Data Engineering sur Kube

    • Exécuter Spark/Flink/Beam sur K8s ; optimiser ressources, shuffle, I/O.

    • Normaliser les environnements d’exécution (Docker base images, Python/Java runtimes).

  • Gouvernance & qualité

    • Mettre en place un data contract / schema registry, tests de données (Great Expectations/Deequ), lineage (OpenLineage/Marquez).

  • Accompagnement

    • Enablement des équipes data (templates, cookbooks), code reviews, mentorat et evangelism des bonnes pratiques.

Candidate profile

Profil recherché
  • 5–8 ans d’expérience dont 3+ sur K8s en prod et 2+ sur Airflow en prod.

  • Expérience avérée de plateformes data à grande échelle (batch/streaming).

  • Expérience avérée Big Data Hadoop.

Working environment

Environnement technique

1) Fondations plateforme
  • Kubernetes (Kube)

  • Packaging & déploiement : Helm (charts) et Kustomize (overlays)

  • GitOps : Argo CD (ou Flux) pour que tout déploiement passe par Git (traçable et réversible).

2) Orchestration de pipelines
  • Airflow sur Kubernetes : déployé via Helm, exécuteurs KubernetesExecutor ou CeleryKubernetes.

  • Exécution des tâches : KubernetesPodOperator (une tâche = un pod) ; opérateurs Spark si besoin.

3) Traitements de données

  • Batch & streaming :

    • Spark on K8s pour les gros traitements batch.

  • Environnements d’exécution : images Docker standardisées (Python/Java), dépendances versionnées.

Neuilly-sur-Seine, Île-de-France
20 - 99 employees
IT services
KLETA est la société de conseil en stratégie data et en développement de plateformes KLETA incarne une nouvelle génération de société en services data spécialisée dans le conseil en transformation data, la mise en place de solutions cloud performantes et le pilotage de projet agiles. Nous aidons nos clients à concevoir avec succès la dernière génération de solutions et d’applications métiers basées sur les données.

Apply to this job!

Find your next career move from +9,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Senior Big Data Consultant (Spark on Kubernetes / Airflow / Kubernetes)

KLETA

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us