Craftman data

Job Vacancy Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)

Hauts-de-Seine

Craftman data

Job position

Permanent
Contractor
As soon as possible
6 months
40k-45k €, 400-550 €
2 to 5 years experience
Hybrid
Hauts-de-Seine, France
Published on 19/11/2025

Share this job

Contexte

Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et

la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement

Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service

(KaaS).

Missions principales

Exploitation & MCO de la plateforme Big Data

- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.

- Garantir la disponibilité, la performance et la sécurité des clusters.

- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).

- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.

Gestion des incidents et support de niveau 2/3

- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et

proposer des plans d’actions correctifs.

- Assurer le suivi jusqu’à résolution complète.

- Rédiger et maintenir la documentation technique associée.

Amélioration continue & automatisation

- Contribuer aux améliorations continues de la plateforme : performance, architecture,

déploiements.

- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).

- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.

Environnement Cloud (GCP)

- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,

Cloud Storage…).

- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.

- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.

Gestion et exploitation des plateformes KaaS

- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent

interne).

- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.

- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.

- Contribuer à la sécurisation et à la standardisation des déploiements.

Collaboration & communication

- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et

Sécurité.

- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.

- Participer aux rituels opérationnels (briefs, comités, revues techniques…).

Profil recherché

Compétences techniques

- Maîtrise de l’écosystème Hadoop.

- Connaissance opérationnelle de GCP.

- Expérience en Kubernetes / KaaS.

- Compétences en automatisation (Python, Shell, Ansible…).

- Connaissances en monitoring (Grafana, Prometheus, ELK…).

- Compréhension des enjeux de sécurité et de gouvernance des données.

Soft skills

- Capacité d’analyse et résolution de problèmes complexes.

- Bonne communication et esprit d’équipe.

- Rigueur, sens du service et autonomie.

- Proactivité dans l’amélioration continue.

Candidate profile

FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)

Contexte

Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et

la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement

Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service

(KaaS).

Missions principales

Exploitation & MCO de la plateforme Big Data

- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.

- Garantir la disponibilité, la performance et la sécurité des clusters.

- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).

- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.

Gestion des incidents et support de niveau 2/3

- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et

proposer des plans d’actions correctifs.

- Assurer le suivi jusqu’à résolution complète.

- Rédiger et maintenir la documentation technique associée.

Amélioration continue & automatisation

- Contribuer aux améliorations continues de la plateforme : performance, architecture,

déploiements.

- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).

- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.

Environnement Cloud (GCP)

- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,

Cloud Storage…).

- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.

- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.

Gestion et exploitation des plateformes KaaS

- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent

interne).

- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.

- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.

- Contribuer à la sécurisation et à la standardisation des déploiements.

Collaboration & communication

- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et

Sécurité.

- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.

- Participer aux rituels opérationnels (briefs, comités, revues techniques…).

Profil recherché

Compétences techniques

- Maîtrise de l’écosystème Hadoop.

- Connaissance opérationnelle de GCP.

- Expérience en Kubernetes / KaaS.

- Compétences en automatisation (Python, Shell, Ansible…).

- Connaissances en monitoring (Grafana, Prometheus, ELK…).

- Compréhension des enjeux de sécurité et de gouvernance des données.

Soft skills

- Capacité d’analyse et résolution de problèmes complexes.

- Bonne communication et esprit d’équipe.

- Rigueur, sens du service et autonomie.

- Proactivité dans l’amélioration continue.

Working environment

FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)

Contexte

Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et

la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement

Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service

(KaaS).

Missions principales

Exploitation & MCO de la plateforme Big Data

- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.

- Garantir la disponibilité, la performance et la sécurité des clusters.

- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).

- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.

Gestion des incidents et support de niveau 2/3

- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et

proposer des plans d’actions correctifs.

- Assurer le suivi jusqu’à résolution complète.

- Rédiger et maintenir la documentation technique associée.

Amélioration continue & automatisation

- Contribuer aux améliorations continues de la plateforme : performance, architecture,

déploiements.

- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).

- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.

Environnement Cloud (GCP)

- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,

Cloud Storage…).

- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.

- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.

Gestion et exploitation des plateformes KaaS

- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent

interne).

- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.

- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.

- Contribuer à la sécurisation et à la standardisation des déploiements.

Collaboration & communication

- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et

Sécurité.

- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.

- Participer aux rituels opérationnels (briefs, comités, revues techniques…).

Profil recherché

Compétences techniques

- Maîtrise de l’écosystème Hadoop.

- Connaissance opérationnelle de GCP.

- Expérience en Kubernetes / KaaS.

- Compétences en automatisation (Python, Shell, Ansible…).

- Connaissances en monitoring (Grafana, Prometheus, ELK…).

- Compréhension des enjeux de sécurité et de gouvernance des données.

Soft skills

- Capacité d’analyse et résolution de problèmes complexes.

- Bonne communication et esprit d’équipe.

- Rigueur, sens du service et autonomie.

- Proactivité dans l’amélioration continue.

20 - 99 employees
IT services
Réinventer l’avenir : l’innovation humaine au cœur de la technologie 🚀 Quelques chiffres clés 30+ clients accompagnés 25+ experts data & IA 2.6 M€ de chiffre d’affaires 2 centres d’expertise 100+ formations par an 15% du CA investi en R&D 🧠 Notre mission Placer l’humain au cœur de la donnée pour créer des solutions intelligentes, responsables et à impact, en alliant expertise technologique, innovation et agilité. 🧩 Nos domaines d'expertise Stratégie data & gouvernance Transformation & qualité de la donnée Ingénierie Big Data Science des données & IA DevOps & automatisation Formation & acculturation data 💡 Nos services Diagnostic de maturité Roadmap IA & data IA générative & éthique Automatisation intelligente Analyse prédictive Data visualisation & UX Gouvernance & qualité des données Architecture cloud & CI/CD 👥 Notre équipe 25+ experts data 10+ spécialistes en stratégie data 5 PhD R&D 5 formateurs certifiés 🧬 Notre méthodologie Customer-centric : solutions co-construites avec nos clients Approche Agile & itérative Expertise sur toute la chaîne de valeur data Autonomisation des équipes métiers 🔁 Cycle de vie de la donnée Collecte multi-source Qualité & préparation Visualisation & dataviz Analyse prédictive & IA Déploiement automatisé (CI/CD) 🎓 Craftmandata Académie Formations inter/intra-entreprise Distanciel ou présentiel Modules sur l’IA, Cloud, DataViz... Formation de "champions métiers" 🧪 Craftmandata Lab – L’innovation concrète 15% du CA dédié à la R&D Projets internes : IA de qualité de données Détection de fraude Classification automatique NLP sur verbatims clients Suivi de la mixité & égalité Calcul de bilan carbone numérique 🛠 Notre écosystème technologique Cloud & microservices Big Data & NoSQL Machine Learning & Deep Learning VueJS, Redis, API, ELT/ETL Outils low/no-code Datalake, Data Catalog, DataViz 🌍 Nos clients & secteurs Banque | Assurance | Industrie | Énergie | Retail | Télécom | Transport

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)

Craftman data

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us