Le poste ADMINISTRATEUR HADOOP H/F
Partager cette offre
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients un Administrateur Hadoop H/F intervenant sur la plateforme Big Data,
Le poste s’inscrit dans un environnement de production critique mêlant exploitation, infrastructure, MCO avancée, migration cloud (GCP), gestion des flux, intégration applicative et optimisation continue.
Le rôle couvre l’ensemble des responsabilités décrites dans la JD, incluant la MCO N2/N3, les incidents, les études techniques, l’installation, le RUN, les POC, la supervision, la performance, la sécurité, et l’unification des volets exploitation/infrastructure.
Objectif et livrable:Administrer et exploiter la plateforme Big Data Hadoop (Cloudera CDP – ex Horton Works).
Assurer la MCO niveau 2 et 3, diagnostiquer et résoudre les incidents.
Gérer les anomalies, tickets applicatifs, et garantir la remise en service rapide.
Installer, tester et mettre en production technologies d’infrastructure & solutions Big Data.
Réaliser études techniques, choix d’architectures, dossiers d’implémentation.
Participer aux projets d’intégration : batch, streaming, optimisation applicative, habilitations.
Contribuer aux POC, analyser résultats, restituer aux équipes d’intégration.
Déployer outils de métrologie, produire indicateurs, tableaux de bord et reporting.
Contribuer à la migration progressive vers GCP (Synapse, Kubernetes).
Assurer le RUN : suivi opérationnel, actions préventives/curatives, HNO/astreintes.
Distribution Hadoop : Cloudera CDP (ancien Hortonworks), maîtrise HDFS, Yarn, Hive, Spark, Oozie.
OS : Linux RedHat / CentOS, scripting Shell, Python.
Cloud : GCP, Synapse, Kubernetes.
Supervision : Grafana, Prometheus, outils de monitoring automatisés.
Data & flux : Kafka, Spark, Hive, HBase, Nifi, ODI, Debezium Server.
Pipelines & orchestration : Airflow, ArgoCD.
Bases & stockage : DBAAS PGSQL, Oracle, S3 Scality, Golden Gate.
Outils complémentaires : Trino, OpenMetaData, OPA, KeyCloak, SuperSet, Lake Keeper, PBI Online Gateway, Online Halo Entra ID, Online Workspace.
Méthodologie : MCO, ITIL, support N2/N3, performance clusters, optimisation continue.
Le mission s'inscrit dans un contexte de pré-embauche en CDI (50–60K€).
N'hésitez pas à m'envoyez vos CV!
Profil recherché
Ingénieur ou administrateur confirmé en environnement Big Data, disposant d’une expérience solide sur Hadoop (3-5 ans) et d’une aisance avérée sur Linux, scripting et technologies associées. Le profil doit être orienté production, fiable en situation d’incident et motivé par les environnements critiques. Une appétence pour le cloud, l’optimisation et les projets d’industrialisation est attendue pour s’intégrer durablement dans la perspective de pré‑embauche.
Environnement de travail
L’équipe, composée de 6 à 8 ingénieurs, couvre l’exploitation Big Data, la supervision, les migrations cloud, la gestion applicative et l’infrastructure Hadoop. L’environnement inclut Cloudera CDP, Linux, Kafka, Spark, GCP, Kubernetes, outils de métrologie, DBAAS, S3 Scality, ETL variés, ainsi que l’ensemble des solutions citées dans la JD.
Télétravail jusqu’à 3 jours/semaine, astreintes HNO rémunérées, avantages liés au futur CDI, cadre technique exigeant, stable et riche en projets.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
ADMINISTRATEUR HADOOP H/F
AXONE BY SYNAPSE
