Share this job
Concevoir, déployer et administrer des clusters Kafka en environnement de production.
Définir et mettre en place les bonnes pratiques d’architecture et de sécurité.
Assurer la supervision, le monitoring et la résolution proactive des incidents.
Optimiser la performance et la scalabilité des flux de données.
Automatiser les déploiements et la gestion des clusters (CI/CD, Infrastructure as Code).
Accompagner et former les équipes internes sur l’usage de Kafka et de son écosystème (Kafka Connect, Schema Registry, KSQL, etc.).
Contribuer aux choix technologiques et à la roadmap data/streaming.
Candidate profile
Bac +5 (école d’ingénieur, université ou équivalent).
Minimum 5 ans d’expérience en environnement data/streaming, dont au moins 3 ans sur Kafka.
Capacité à travailler en autonomie et à accompagner une équipe.
Force de proposition, rigueur et sens de l’innovation.
Working environment
Maîtrise avancée d’Apache Kafka (administration, tuning, monitoring).
Expérience confirmée en architectures distribuées et systèmes temps réel.
Bonne connaissance de Kafka Connect, KSQL, Schema Registry, Avro/Protobuf.
Solides compétences en DevOps / Cloud (Docker, Kubernetes, Terraform, CI/CD).
Expérience avec au moins un grand Cloud (AWS, GCP, Azure).
Maitrise des outils de supervision (Prometheus, Grafana, ELK, etc.).
Compétences en langage de programmation (Java, Scala, Python ou Go).
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Expert Kafka
KLETA