KLETA

Offre d'emploi DataOps Hadoop

Paris

KLETA

Le poste

Freelance
CDI
3 ans
10k-86k €⁄an, 100-670 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Paris, France
Publiée le 10/04/2024

Partager cette offre

  1. Architecture et Conception :

    • Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise.

    • Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop.

    • Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet.

  2. Installation et Configuration :

    • Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques.

    • Gérer les configurations, les mises à jour et les correctifs des composants Hadoop.

  3. Surveillance et Optimisation :

    • Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement.

    • Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes.

    • Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels.

  4. Sécurité :

    • Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop.

    • Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc.

    • Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées.

  5. Gestion des Données :

    • Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données.

    • Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données.

    • Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées.

  6. Automatisation et Orchestration :

    • Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc.

    • Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop.

  7. Développement et Support :

    • Fournir un support technique aux équipes de développement et d'analyse des données.

    • Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop.

    • Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop.

  8. Formation et Documentation :

    • Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop.

    • Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances.

  9. Veille Technologique :

    • Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données.

    • Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.

Profil recherché

Expérience :

  • Au moins 5 à 7 ans d'expérience dans l'administration, la gestion et le déploiement de clusters Hadoop, de préférence dans un rôle senior.

  • Une solide expérience en architecture de données, en ingénierie des systèmes et en gestion de projet.

Compétences Techniques :

  • Expertise approfondie dans l'écosystème Hadoop, y compris HDFS, MapReduce, YARN, Hive, Pig, Spark, HBase, etc.

  • Maîtrise des langages de programmation comme Java, Python, Scala, et des compétences en scripting avec Shell Unix/Linux.

  • Connaissance approfondie des concepts de base de données, de SQL et de NoSQL.

  • Expérience pratique avec des outils d'automatisation et d'orchestration comme Apache Oozie, Apache Airflow, etc.

Certifications :

  • Les certifications pertinentes dans le domaine du Big Data et de Hadoop, telles que Cloudera Certified Administrator (CCA) ou Hortonworks Certified Administrator (HCA), sont un plus.

Environnement de travail

Le client dispose d'un cluster Hadoop important utilisé pour stocker et traiter des volumes massifs de données provenant de diverses sources. Bien que le cluster soit opérationnel depuis un certain temps, plusieurs problèmes de performance et de gestion des données ont été identifiés. Le client cherche à optimiser son infrastructure Hadoop afin d'améliorer les performances, la disponibilité des données et la gestion globale du cluster.

Neuilly-sur-Seine, Île-de-France
20 - 99 salariés
ESN
KLETA est la société de conseil en stratégie data et en développement de plateformes KLETA incarne une nouvelle génération de société en services data spécialisée dans le conseil en transformation data, la mise en place de solutions cloud performantes et le pilotage de projet agiles. Nous aidons nos clients à concevoir avec succès la dernière génération de solutions et d’applications métiers basées sur les données.

Postulez à cette offre !

Trouvez votre prochaine mission parmi +15 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

DataOps Hadoop

KLETA

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous