Find your next tech and IT Job or contract HDFS (Hadoop Distributed File System)

Your search returns 1 result.
Contractor

Contractor job
ADMINISTRATEUR HADOOP H/F

Published on
Apache Airflow
Apache Hive
Apache Kafka

3 months
Nanterre, Ile-de-France
Hybrid
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients un Administrateur Hadoop H/F intervenant sur la plateforme Big Data, Le poste s’inscrit dans un environnement de production critique mêlant exploitation, infrastructure, MCO avancée, migration cloud (GCP), gestion des flux, intégration applicative et optimisation continue. Le rôle couvre l’ensemble des responsabilités décrites dans la JD, incluant la MCO N2/N3, les incidents, les études techniques, l’installation, le RUN, les POC, la supervision, la performance, la sécurité, et l’unification des volets exploitation/infrastructure. Objectif et livrable: Administrer et exploiter la plateforme Big Data Hadoop (Cloudera CDP – ex Horton Works). Assurer la MCO niveau 2 et 3, diagnostiquer et résoudre les incidents. Gérer les anomalies, tickets applicatifs, et garantir la remise en service rapide. Installer, tester et mettre en production technologies d’infrastructure & solutions Big Data. Réaliser études techniques, choix d’architectures, dossiers d’implémentation. Participer aux projets d’intégration : batch, streaming, optimisation applicative, habilitations. Contribuer aux POC, analyser résultats, restituer aux équipes d’intégration. Déployer outils de métrologie, produire indicateurs, tableaux de bord et reporting. Contribuer à la migration progressive vers GCP (Synapse, Kubernetes). Assurer le RUN : suivi opérationnel, actions préventives/curatives, HNO/astreintes. Compétences attendues: Distribution Hadoop : Cloudera CDP (ancien Hortonworks), maîtrise HDFS, Yarn, Hive, Spark, Oozie. OS : Linux RedHat / CentOS, scripting Shell, Python. Cloud : GCP, Synapse, Kubernetes. Supervision : Grafana, Prometheus, outils de monitoring automatisés. Data & flux : Kafka, Spark, Hive, HBase, Nifi, ODI, Debezium Server. Pipelines & orchestration : Airflow, ArgoCD. Bases & stockage : DBAAS PGSQL, Oracle, S3 Scality, Golden Gate. Outils complémentaires : Trino, OpenMetaData, OPA, KeyCloak, SuperSet, Lake Keeper, PBI Online Gateway, Online Halo Entra ID, Online Workspace. Méthodologie : MCO, ITIL, support N2/N3, performance clusters, optimisation continue. Le mission s'inscrit dans un contexte de pré-embauche en CDI (50–60K€). N'hésitez pas à m'envoyez vos CV!
1 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us