Le poste Data Engineer On Premise expérimenté
Partager cette offre
Découvrez une opportunité unique pour un Data Engineer On Premise expérimenté, passionné par la conception et le développement de services orientés Data. Au sein d’une équipe agile, vous interviendrez sur l’intégration de composants techniques, la réalisation de tests et benchmarks, et la documentation complète des projets. Votre savoir-faire permettra d’assurer un support technique aux utilisateurs tout en transférant efficacement vos connaissances aux équipes Ops, garantissant une parfaite maîtrise des outils et process déployés.
Ce poste exige une expertise solide sur des outils majeurs tels qu’Airflow, Spark, Kafka et Kafka Connect, ainsi qu’une maîtrise de Java et Python pour le développement. Vous évoluerez dans un environnement Docker, Kubernetes et OpenShift, où l’automatisation via GitOps et Helm fait partie du quotidien. La gestion de base de données PostgreSQL et Trino viendra compléter ce panel technique avancé. Rejoindre cette équipe, c’est mettre à profit vos compétences au service de projets innovants et collaboratifs, avec une forte dimension d’accompagnement et de partage d’expertise. Votre rigueur, capacité d’analyse et esprit d’équipe seront les clés de votre réussite sur ce poste stratégique.
Profil : Data Engineer On Premise expérimenté
Principales tâches :
Conception et développement de services orientés Data
Intégration de composants techniques
Tests, benchmarks, documentation
Support technique aux utilisateurs
Transfert de connaissances aux équipes Ops
Compétences techniques :
Airflow
Java / Python
GitOps / Helm
Docker / Kubernetes / OpenShift
Spark
Kafka / Kafka Connect
PostgreSQL
Trino
Profil recherché
Chez mon client du secteur de l'énergie les compétences du talent attendus sont: la maîtrise d’Airflow pour l’orchestration des workflows, Java et Python pour le développement, et GitOps/Helm pour l’automatisation des déploiements. La gestion de conteneurs via Docker, Kubernetes et OpenShift est essentielle pour la scalabilité et la flexibilité des infrastructures. Spark et Kafka/Kafka Connect optimisent le traitement et le streaming des données, tandis que PostgreSQL et Trino permettent la gestion et l’interrogation avancée des bases de données, assurant performance et innovation.
Compétences techniques :
Airflow
Java / Python
GitOps / Helm
Docker / Kubernetes / OpenShift
Spark
Kafka / Kafka Connect
PostgreSQL
Trino
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer On Premise expérimenté
Nicholson SAS
