Job position Développeur Kafka
Share this job
Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements.
La prestation peut-être basée à Levallois ou Mérignac.
Mission principales dans le cadre de la prestation :
Onboarding & Accompagnement des équipes
- Valider les topics, ACLs et schémas Avro ( compatibilité) .
- Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka.
Support & Troubleshooting
- Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….)
- Diagnostiquer les problèmes de latence, offset, débit et consommation.
- Identifier les route cause et proposer des optimisations.
Développement & Intégration de Connecteurs Kafka Connect
- Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers.
- Réaliser des tests de performance et assurer la validation avant mise en production.
- Documenter et mettre à disposition les connecteurs sur la plateforme Kafka.
Monitoring & Observabilité
- Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants.
- Installer et configurer des agents de monitoring pour prévenir les incidents.
- Définir des alertes automatisées pour garantir la résilience de la plateforme.
Automatisation & Industrialisation
- Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible).
- Structurer et documenter les process pour assurer une gouvernance efficace.
Profil & Compétences recherchées :
- Expertise technique sur Apache Kafka (administration, technique, troubleshooting).
- Schéma Avro & Schema Registry : validation, compatibilité et évolution.
- Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace.
- CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible.
- Esprit analytique et capacité à résoudre des problèmes complexes.
- Excellentes compétences en communication pour accompagner les équipes.
- Approche DevOps et automatisation des processus.
- Bonne compréhension des architectures de données (API, flux, BDD, etc.)
- Anglais courant
Candidate profile
Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements.
La prestation peut-être basée à Levallois ou Mérignac.
Mission principales dans le cadre de la prestation :
Onboarding & Accompagnement des équipes
- Valider les topics, ACLs et schémas Avro ( compatibilité) .
- Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka.
Support & Troubleshooting
- Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….)
- Diagnostiquer les problèmes de latence, offset, débit et consommation.
- Identifier les route cause et proposer des optimisations.
Développement & Intégration de Connecteurs Kafka Connect
- Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers.
- Réaliser des tests de performance et assurer la validation avant mise en production.
- Documenter et mettre à disposition les connecteurs sur la plateforme Kafka.
Monitoring & Observabilité
- Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants.
- Installer et configurer des agents de monitoring pour prévenir les incidents.
- Définir des alertes automatisées pour garantir la résilience de la plateforme.
Automatisation & Industrialisation
- Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible).
- Structurer et documenter les process pour assurer une gouvernance efficace.
Profil & Compétences recherchées :
- Expertise technique sur Apache Kafka (administration, technique, troubleshooting).
- Schéma Avro & Schema Registry : validation, compatibilité et évolution.
- Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace.
- CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible.
- Esprit analytique et capacité à résoudre des problèmes complexes.
- Excellentes compétences en communication pour accompagner les équipes.
- Approche DevOps et automatisation des processus.
- Bonne compréhension des architectures de données (API, flux, BDD, etc.)
- Anglais courant
Working environment
Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements.
La prestation peut-être basée à Levallois ou Mérignac.
Mission principales dans le cadre de la prestation :
Onboarding & Accompagnement des équipes
- Valider les topics, ACLs et schémas Avro ( compatibilité) .
- Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka.
Support & Troubleshooting
- Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….)
- Diagnostiquer les problèmes de latence, offset, débit et consommation.
- Identifier les route cause et proposer des optimisations.
Développement & Intégration de Connecteurs Kafka Connect
- Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers.
- Réaliser des tests de performance et assurer la validation avant mise en production.
- Documenter et mettre à disposition les connecteurs sur la plateforme Kafka.
Monitoring & Observabilité
- Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants.
- Installer et configurer des agents de monitoring pour prévenir les incidents.
- Définir des alertes automatisées pour garantir la résilience de la plateforme.
Automatisation & Industrialisation
- Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible).
- Structurer et documenter les process pour assurer une gouvernance efficace.
Profil & Compétences recherchées :
- Expertise technique sur Apache Kafka (administration, technique, troubleshooting).
- Schéma Avro & Schema Registry : validation, compatibilité et évolution.
- Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace.
- CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible.
- Esprit analytique et capacité à résoudre des problèmes complexes.
- Excellentes compétences en communication pour accompagner les équipes.
- Approche DevOps et automatisation des processus.
- Bonne compréhension des architectures de données (API, flux, BDD, etc.)
- Anglais courant
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Développeur Kafka
CAT-AMANIA
