Find your next tech and IT Job or contract HDFS (Hadoop Distributed File System)
Your search returns 1 result.
Contractor job
ADMINISTRATEUR HADOOP H/F
Published on
Apache Airflow
Apache Hive
Apache Kafka
3 months
Nanterre, Ile-de-France
Hybrid
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients un Administrateur Hadoop H/F intervenant sur la plateforme Big Data, Le poste s’inscrit dans un environnement de production critique mêlant exploitation, infrastructure, MCO avancée, migration cloud (GCP), gestion des flux, intégration applicative et optimisation continue. Le rôle couvre l’ensemble des responsabilités décrites dans la JD, incluant la MCO N2/N3, les incidents, les études techniques, l’installation, le RUN, les POC, la supervision, la performance, la sécurité, et l’unification des volets exploitation/infrastructure. Objectif et livrable: Administrer et exploiter la plateforme Big Data Hadoop (Cloudera CDP – ex Horton Works). Assurer la MCO niveau 2 et 3, diagnostiquer et résoudre les incidents. Gérer les anomalies, tickets applicatifs, et garantir la remise en service rapide. Installer, tester et mettre en production technologies d’infrastructure & solutions Big Data. Réaliser études techniques, choix d’architectures, dossiers d’implémentation. Participer aux projets d’intégration : batch, streaming, optimisation applicative, habilitations. Contribuer aux POC, analyser résultats, restituer aux équipes d’intégration. Déployer outils de métrologie, produire indicateurs, tableaux de bord et reporting. Contribuer à la migration progressive vers GCP (Synapse, Kubernetes). Assurer le RUN : suivi opérationnel, actions préventives/curatives, HNO/astreintes. Compétences attendues: Distribution Hadoop : Cloudera CDP (ancien Hortonworks), maîtrise HDFS, Yarn, Hive, Spark, Oozie. OS : Linux RedHat / CentOS, scripting Shell, Python. Cloud : GCP, Synapse, Kubernetes. Supervision : Grafana, Prometheus, outils de monitoring automatisés. Data & flux : Kafka, Spark, Hive, HBase, Nifi, ODI, Debezium Server. Pipelines & orchestration : Airflow, ArgoCD. Bases & stockage : DBAAS PGSQL, Oracle, S3 Scality, Golden Gate. Outils complémentaires : Trino, OpenMetaData, OPA, KeyCloak, SuperSet, Lake Keeper, PBI Online Gateway, Online Halo Entra ID, Online Workspace. Méthodologie : MCO, ITIL, support N2/N3, performance clusters, optimisation continue. Le mission s'inscrit dans un contexte de pré-embauche en CDI (50–60K€). N'hésitez pas à m'envoyez vos CV!
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
1 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k