Find your next tech and IT Job or contract Yarn

Your search returns 2 results.
Contractor

Contractor job
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Published on
Apache
Apache NiFi
Apache Spark

12 months
400-650 €
Paris, France
Hybrid
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Permanent
Contractor

Job Vacancy
Administrateur Hadoop Infra– MCO & Exploitation (H/F)

Published on
Google Cloud Platform (GCP)
Hadoop
HDFS (Hadoop Distributed File System)

6 months
40k-45k €
400-550 €
Hauts-de-Seine, France
Hybrid
Contexte Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service (KaaS). Missions principales Exploitation & MCO de la plateforme Big Data - Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop. - Garantir la disponibilité, la performance et la sécurité des clusters. - Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.). - Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité. Gestion des incidents et support de niveau 2/3 - Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et proposer des plans d’actions correctifs. - Assurer le suivi jusqu’à résolution complète. - Rédiger et maintenir la documentation technique associée. Amélioration continue & automatisation - Contribuer aux améliorations continues de la plateforme : performance, architecture, déploiements. - Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…). - Participer aux évolutions de l’écosystème et aux projets de transformation Big Data. Environnement Cloud (GCP) - Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc, Cloud Storage…). - Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP. - Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP. Gestion et exploitation des plateformes KaaS - Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent interne). - Déployer et maintenir les services Data ou applicatifs tournant sur KaaS. - Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge. - Contribuer à la sécurisation et à la standardisation des déploiements. Collaboration & communication - Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et Sécurité. - Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets. - Participer aux rituels opérationnels (briefs, comités, revues techniques…). Profil recherché Compétences techniques - Maîtrise de l’écosystème Hadoop. - Connaissance opérationnelle de GCP. - Expérience en Kubernetes / KaaS. - Compétences en automatisation (Python, Shell, Ansible…). - Connaissances en monitoring (Grafana, Prometheus, ELK…). - Compréhension des enjeux de sécurité et de gouvernance des données. Soft skills - Capacité d’analyse et résolution de problèmes complexes. - Bonne communication et esprit d’équipe. - Rigueur, sens du service et autonomie. - Proactivité dans l’amélioration continue.

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

2 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us