Craftman data

Offre d'emploi Consultant DataOps / Administrateur Hadoop

La Défense (92)

Craftman data

Le poste

CDI
29/04/2026
5 à 10 ans d’expérience
Télétravail partiel
La Défense, Île-de-France
Publiée le 04/03/2026

Partager cette offre

Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé, intégré à l’équipe BDP (Big Data Platform).

Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP), au service des projets data et métiers.

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

Profil recherché

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

Environnement de travail

🎯 Rôle et responsabilités1. Déploiement & industrialisation des clusters Big Data
  • Déploiement automatisé de clusters via pipelines Jenkins

  • Installation et configuration des composants Hadoop via Ansible

  • Adaptation des architectures selon les besoins projets (sécurité, performance, capacité)

  • Contribution aux pratiques CI/CD et Infrastructure as Code

  • Déploiement et administration du TDP Manager

  • Mise en place de Hue pour les environnements Datalab

2. Administration avancée de la stack Hadoop / TDP

Le consultant est responsable de l’installation, la configuration et l’exploitation de :

  • Sécurité & identités :

    • OpenLDAP

    • Kerberos

    • Ranger (politiques de sécurité)

  • Stockage & calcul distribué :

    • HDFS (baie Huawei)

    • Hadoop (YARN, services core)

  • Traitement & accès aux données :

    • Spark

    • Hive

  • Services transverses :

    • ZooKeeper

    • PostgreSQL

Responsabilités associées :

  • Gestion des dépendances inter-services

  • Cohérence des versions

  • Optimisation des performances et de la stabilité

  • Résolution des incidents complexes

3. Provisionnement & automatisation des environnements
  • Provisionnement de VM sous VMware

  • Préparation des prérequis systèmes (OS, réseau, stockage)

  • Automatisation via Ansible et scripts Bash

  • Gestion des environnements DEV / RECETTE / PROD

4. Observabilité, supervision & anticipation
  • Mise en œuvre et maintien de la stack d’observabilité :

    • Prometheus

    • Alertmanager

    • Loki / Promtail

    • Grafana

  • Définition des indicateurs de supervision

  • Analyse proactive des alertes

  • Diagnostic et résolution d’incidents

5. Maintien en Condition Opérationnelle (MCO)
  • Administration quotidienne des clusters Hadoop

  • Support aux équipes projets et utilisateurs Datalab

  • Gestion des incidents, demandes d’évolution et correctifs

  • Montées de version

  • Suivi de capacité (CPU, RAM, stockage)

  • Rédaction et mise à jour de la documentation technique

🤝 Interaction & posture attendue
  • Participation active aux rituels d’équipe

  • Coordination avec :

    • Équipes infrastructure

    • Équipes projets data / métiers

    • Référents sécurité

  • Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme

  • Forte capacité de communication transverse

🧠 Compétences clés attenduesTechniques
  • Expertise Hadoop / Big Data on-prem

  • Solide expérience DataOps / DevOps

  • Maîtrise de :

    • Jenkins, GitLab CI/CD, SonarQube

    • Ansible, Bash

    • VMware, Docker

    • Stack d’observabilité (Prometheus, Grafana, Loki)

Méthodologiques & soft skills :
  • Rigueur et sens de la qualité

  • Forte sensibilité aux enjeux de sécurité

  • Capacité d’anticipation (supervision, performance, capacité)

  • Autonomie et esprit d’équipe

  • Aisance dans des environnements complexes et critiques

⚠️ Points de vigilance
  • Forte interdépendance des composants Hadoop

  • Exigences élevées en matière de sécurité (Kerberos, Ranger)

  • Enjeux de performance et de disponibilité

  • Nécessité d’une coordination transverse permanente

20 - 99 salariés
ESN
Réinventer l’avenir : l’innovation humaine au cœur de la technologie 🚀 Quelques chiffres clés 30+ clients accompagnés 25+ experts data & IA 2.6 M€ de chiffre d’affaires 2 centres d’expertise 100+ formations par an 15% du CA investi en R&D 🧠 Notre mission Placer l’humain au cœur de la donnée pour créer des solutions intelligentes, responsables et à impact, en alliant expertise technologique, innovation et agilité. 🧩 Nos domaines d'expertise Stratégie data & gouvernance Transformation & qualité de la donnée Ingénierie Big Data Science des données & IA DevOps & automatisation Formation & acculturation data 💡 Nos services Diagnostic de maturité Roadmap IA & data IA générative & éthique Automatisation intelligente Analyse prédictive Data visualisation & UX Gouvernance & qualité des données Architecture cloud & CI/CD 👥 Notre équipe 25+ experts data 10+ spécialistes en stratégie data 5 PhD R&D 5 formateurs certifiés 🧬 Notre méthodologie Customer-centric : solutions co-construites avec nos clients Approche Agile & itérative Expertise sur toute la chaîne de valeur data Autonomisation des équipes métiers 🔁 Cycle de vie de la donnée Collecte multi-source Qualité & préparation Visualisation & dataviz Analyse prédictive & IA Déploiement automatisé (CI/CD) 🎓 Craftmandata Académie Formations inter/intra-entreprise Distanciel ou présentiel Modules sur l’IA, Cloud, DataViz... Formation de "champions métiers" 🧪 Craftmandata Lab – L’innovation concrète 15% du CA dédié à la R&D Projets internes : IA de qualité de données Détection de fraude Classification automatique NLP sur verbatims clients Suivi de la mixité & égalité Calcul de bilan carbone numérique 🛠 Notre écosystème technologique Cloud & microservices Big Data & NoSQL Machine Learning & Deep Learning VueJS, Redis, API, ELT/ETL Outils low/no-code Datalake, Data Catalog, DataViz 🌍 Nos clients & secteurs Banque | Assurance | Industrie | Énergie | Retail | Télécom | Transport

Postulez à cette offre !

Trouvez votre prochain job parmi +10 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Consultant DataOps / Administrateur Hadoop

Craftman data

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous