Le poste Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)
Partager cette offre
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Profil recherché
FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Environnement de travail
FICHE DE POSTE – Ingénieur Big Data / Hadoop – MCO & Exploitation (H/F)
Contexte
Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et
la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement
Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service
(KaaS).
Missions principales
Exploitation & MCO de la plateforme Big Data
- Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop.
- Garantir la disponibilité, la performance et la sécurité des clusters.
- Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.).
- Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité.
Gestion des incidents et support de niveau 2/3
- Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et
proposer des plans d’actions correctifs.
- Assurer le suivi jusqu’à résolution complète.
- Rédiger et maintenir la documentation technique associée.
Amélioration continue & automatisation
- Contribuer aux améliorations continues de la plateforme : performance, architecture,
déploiements.
- Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…).
- Participer aux évolutions de l’écosystème et aux projets de transformation Big Data.
Environnement Cloud (GCP)
- Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc,
Cloud Storage…).
- Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP.
- Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP.
Gestion et exploitation des plateformes KaaS
- Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent
interne).
- Déployer et maintenir les services Data ou applicatifs tournant sur KaaS.
- Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge.
- Contribuer à la sécurisation et à la standardisation des déploiements.
Collaboration & communication
- Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et
Sécurité.
- Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets.
- Participer aux rituels opérationnels (briefs, comités, revues techniques…).
Profil recherché
Compétences techniques
- Maîtrise de l’écosystème Hadoop.
- Connaissance opérationnelle de GCP.
- Expérience en Kubernetes / KaaS.
- Compétences en automatisation (Python, Shell, Ansible…).
- Connaissances en monitoring (Grafana, Prometheus, ELK…).
- Compréhension des enjeux de sécurité et de gouvernance des données.
Soft skills
- Capacité d’analyse et résolution de problèmes complexes.
- Bonne communication et esprit d’équipe.
- Rigueur, sens du service et autonomie.
- Proactivité dans l’amélioration continue.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Ingénieur Big Data / Hadoop /GCP – MCO & Exploitation (H/F)
Craftman data