Job position Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)
Share this job
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Candidate profile
FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Working environment
FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)
Craftman data