Job position Data Engineer On Premise expérimenté
Share this job
Découvrez une opportunité unique pour un Data Engineer On Premise expérimenté, passionné par la conception et le développement de services orientés Data. Au sein d’une équipe agile, vous interviendrez sur l’intégration de composants techniques, la réalisation de tests et benchmarks, et la documentation complète des projets. Votre savoir-faire permettra d’assurer un support technique aux utilisateurs tout en transférant efficacement vos connaissances aux équipes Ops, garantissant une parfaite maîtrise des outils et process déployés.
Ce poste exige une expertise solide sur des outils majeurs tels qu’Airflow, Spark, Kafka et Kafka Connect, ainsi qu’une maîtrise de Java et Python pour le développement. Vous évoluerez dans un environnement Docker, Kubernetes et OpenShift, où l’automatisation via GitOps et Helm fait partie du quotidien. La gestion de base de données PostgreSQL et Trino viendra compléter ce panel technique avancé. Rejoindre cette équipe, c’est mettre à profit vos compétences au service de projets innovants et collaboratifs, avec une forte dimension d’accompagnement et de partage d’expertise. Votre rigueur, capacité d’analyse et esprit d’équipe seront les clés de votre réussite sur ce poste stratégique.
Profil : Data Engineer On Premise expérimenté
Principales tâches :
Conception et développement de services orientés Data
Intégration de composants techniques
Tests, benchmarks, documentation
Support technique aux utilisateurs
Transfert de connaissances aux équipes Ops
Compétences techniques :
Airflow
Java / Python
GitOps / Helm
Docker / Kubernetes / OpenShift
Spark
Kafka / Kafka Connect
PostgreSQL
Trino
Candidate profile
Chez mon client du secteur de l'énergie les compétences du talent attendus sont: la maîtrise d’Airflow pour l’orchestration des workflows, Java et Python pour le développement, et GitOps/Helm pour l’automatisation des déploiements. La gestion de conteneurs via Docker, Kubernetes et OpenShift est essentielle pour la scalabilité et la flexibilité des infrastructures. Spark et Kafka/Kafka Connect optimisent le traitement et le streaming des données, tandis que PostgreSQL et Trino permettent la gestion et l’interrogation avancée des bases de données, assurant performance et innovation.
Compétences techniques :
Airflow
Java / Python
GitOps / Helm
Docker / Kubernetes / OpenShift
Spark
Kafka / Kafka Connect
PostgreSQL
Trino
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer On Premise expérimenté
Nicholson SAS
