Le poste Data Engineer / DevOps Kafka Senior
Partager cette offre
Rejoignez une équipe au cœur de la transformation technologique en tant que Data Engineer / DevOps Kafka Senior, où vous interviendrez sur la conception, l’exploitation et l’automatisation de plateformes Kafka industrielles déployées en environnements On-Premise et cloud. Vous serez impliqué dans l’administration avancée de clusters, le développement de solutions “Kafka as Code”, ainsi que dans la mise en place de pipelines CI/CD et d’outils d’automatisation (Python, Terraform, Ansible). Vous contribuerez également au maintien en conditions opérationnelles d’offres existantes, à leur évolution progressive, et participerez aux dispositifs de support et d’astreinte, tout en améliorant en continu la fiabilité, la supervision et l’industrialisation des systèmes dans des environnements conteneurisés (Docker, Kubernetes).
Profil recherché
Nous recherchons un Data Engineer / DevOps Kafka Senior disposant de 6 à 10 ans d’expérience, avec une expertise solide en administration et exploitation avancée d’Apache Kafka. Le candidat idéal maîtrise les environnements Linux (RedHat), le scripting (Bash, Python) ainsi que les outils d’automatisation comme Ansible, et possède une bonne pratique des workflows Git (GitLab). Il est à l’aise avec les architectures cloud et les environnements conteneurisés tels que Docker et Kubernetes, et dispose idéalement de compétences en Infrastructure as Code (Terraform) et en approches GitOps (ArgoCD). Une expérience avec des pipelines de données (Airflow) et des microservices Kafka (Java) est un plus. Autonome, rigoureux et orienté production, il est capable d’intervenir sur des incidents critiques, de participer à des rotations d’astreinte et de contribuer activement à l’amélioration continue des systèmes. Un bon niveau d’anglais professionnel est requis.
Environnement de travail
Vous évoluerez dans un environnement technique exigeant et innovant, organisé en mode agile au sein d’une squad spécialisée dans les plateformes de streaming de données. L’écosystème repose sur des infrastructures hybrides combinant On-Premise et cloud (notamment IBM Cloud), avec une forte orientation DevOps et automatisation. Vous travaillerez quotidiennement avec des technologies telles que Apache Kafka, Python, Linux (RedHat), Ansible et GitLab, tout en contribuant à des projets stratégiques autour du “Kafka as Code”, de l’Infrastructure as Code (Terraform) et des pratiques GitOps (ArgoCD). Les environnements conteneurisés (Docker, Kubernetes, OpenShift) et les pipelines CI/CD sont au cœur des processus, favorisant l’industrialisation, la scalabilité et la fiabilité des services. L’équipe valorise la collaboration, le partage de connaissances et l’amélioration continue, avec une forte culture de la qualité de service et de la résilience des systèmes.
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer / DevOps Kafka Senior
Deodis