Le poste Ingénieur Big Data - DevOps (H/F)
Partager cette offre
Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux.
Objectifs et livrables
L’expertise technique sur le Datalake (plateforme Big Data) consistera à :
· Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux
· Contribuer à l’implémentation/automatisation des solutions
· Effectuer les actions de mises en production
· Contribuer à l’amélioration continue des outils d’exploitation
· Communication auprès des utilisateurs finaux
Le consultant devra fournir les livrables suivants :
· Récapitulatif mensuel des tickets traités (incidents, demandes de travaux)
· Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur
Profil recherché
Compétences / Niveau de compétence
Hbase : Avancé
Maintien en condition opérationnelle PROD : Expert
Hive : Avancé
Spark : Expert
Docker : Expert
Hadoop : Expert
Scala : Avancé
Kafka : Expert
Kubernetes : Expert
Python : Confirmé
UNIX / LINUX : Expert
Environnement de travail
Compétences / Niveau de compétence
Hbase : Avancé
Maintien en condition opérationnelle PROD : Expert
Hive : Avancé
Spark : Expert
Docker : Expert
Hadoop : Expert
Scala : Avancé
Kafka : Expert
Kubernetes : Expert
Python : Confirmé
UNIX / LINUX : Expert
Postulez à cette offre !
Trouvez votre prochaine mission parmi +15 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Ingénieur Big Data - DevOps (H/F)
VISIAN