Craftman data

Job Vacancy Consultant DataOps / Administrateur Hadoop

La Défense (92)

Craftman data

Job position

Permanent
29/04/2026
5 to 10 years experience
Hybrid
La Défense, Ile-de-France
Published on 04/03/2026

Share this job

Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé, intégré à l’équipe BDP (Big Data Platform).

Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP), au service des projets data et métiers.

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

Candidate profile

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

Working environment

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

20 - 99 employees
IT services
Réinventer l’avenir : l’innovation humaine au cœur de la technologie 🚀 Quelques chiffres clés 30+ clients accompagnés 25+ experts data & IA 2.6 M€ de chiffre d’affaires 2 centres d’expertise 100+ formations par an 15% du CA investi en R&D 🧠 Notre mission Placer l’humain au cœur de la donnée pour créer des solutions intelligentes, responsables et à impact, en alliant expertise technologique, innovation et agilité. 🧩 Nos domaines d'expertise Stratégie data & gouvernance Transformation & qualité de la donnée Ingénierie Big Data Science des données & IA DevOps & automatisation Formation & acculturation data 💡 Nos services Diagnostic de maturité Roadmap IA & data IA générative & éthique Automatisation intelligente Analyse prédictive Data visualisation & UX Gouvernance & qualité des données Architecture cloud & CI/CD 👥 Notre équipe 25+ experts data 10+ spécialistes en stratégie data 5 PhD R&D 5 formateurs certifiés 🧬 Notre méthodologie Customer-centric : solutions co-construites avec nos clients Approche Agile & itérative Expertise sur toute la chaîne de valeur data Autonomisation des équipes métiers 🔁 Cycle de vie de la donnée Collecte multi-source Qualité & préparation Visualisation & dataviz Analyse prédictive & IA Déploiement automatisé (CI/CD) 🎓 Craftmandata Académie Formations inter/intra-entreprise Distanciel ou présentiel Modules sur l’IA, Cloud, DataViz... Formation de "champions métiers" 🧪 Craftmandata Lab – L’innovation concrète 15% du CA dédié à la R&D Projets internes : IA de qualité de données Détection de fraude Classification automatique NLP sur verbatims clients Suivi de la mixité & égalité Calcul de bilan carbone numérique 🛠 Notre écosystème technologique Cloud & microservices Big Data & NoSQL Machine Learning & Deep Learning VueJS, Redis, API, ELT/ETL Outils low/no-code Datalake, Data Catalog, DataViz 🌍 Nos clients & secteurs Banque | Assurance | Industrie | Énergie | Retail | Télécom | Transport

Apply to this job!

Find your next job from +900 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Consultant DataOps / Administrateur Hadoop

Craftman data

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2026 © Free-Work / AGSI SAS
Follow us