Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 269 résultats.
Offre d'emploi
Expert technique Kafka et Kafka Stream
OCTOGONE
Publiée le
Apache Kafka
6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant qu’expert technique sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Vous évoluez dans un contexte à forte volumétrie de données , avec ingestion massive de flux issus de centaines de milliers d’équipements, nécessitant des traitements fiables, performants et scalables. Vous contribuez directement à la conception et à l’optimisation de pipelines de streaming critiques, avec des enjeux de latence, de throughput, de résilience et de cohérence des données. En tant qu’expert Kafka / Kafka Streams, vous êtes un référent technique clé sur les problématiques de streaming et intervenez sur des sujets avancés liés aux architectures event-driven et aux systèmes distribués.
Offre d'emploi
Expert KAFKA
SMILE
Publiée le
Apache Kafka
Kubernetes
6 mois
40k-70k €
400-700 €
Paris, France
Bonjour, Nous recherchons un Expert Kafka, avec des compétences sur Kubernetes, java et angular pour une mission secteur bancaire. Pilotage technique Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des pipelines sous Gitlab CI Réaliser des tests techniquement approfondis de bon fonctionnement applicatif, assurer la cohérence et la robustesse technique des traitements Participer à la conception des architectures cibles en lien avec les architectes et les équipes DSI Contribuer à l’amélioration continue des performances et de la stabilité des pipelines 2. Conception et industrialisation Concevoir, développer et maintenir des pipelines Gitlab CI, KSQLDB (Kafka) Mettre en œuvre les solutions d’orchestration et d’automatisation Revue et validation des dossiers de conception réalisés par les équipes de développement Veiller à la documentation, à la supervision et au monitoring des traitements. 3. Encadrement et accompagnement Accompagner techniquement les développement dans leurs développements et leur montée en compétence Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring). Faciliter les échanges entre les équipes Projet , Architecture, Sécurité et Métier. 4. Gouvernance et qualité Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données. Collaborer avec la Release Manager et être garant du respect par l'équipe projet, des process qualité de gestion des releases Participer à aux chantiers instancés par l'équipe Sécurité, par exemple la mise en œuvre du plan de secours informatique 2 fois par an Compétences techniques/fonctionnelles Langages et outils CI/CD & Infra : GitLab CI, Docker, Kubernetes Base de donnée : Mongo shell, PostgreSQL, Elastic Search Architecture & bonnes pratiques Architecture microservices Performance et optimisation des traitements applicatifs sur Kubernetes Sécurité, gouvernance et qualité des données Supervision et observabilité (logs, alertes, métriques)
Offre d'emploi
Expert ELK / Kafka (H/F)
SAS GEMINI
Publiée le
Apache Kafka
Elasticsearch
3 ans
Montreuil, Île-de-France
Dans le cadre des missions de l'équipe Log Analytics, nous souhaitons une prestation d'expertise technique de RUN et de Build sur les produits Kafka et de la stack Elastic (Data Architecture + OPS + Data Engineering + notions Data Analyse). Les missions sont : - Intégration dans une équipe d'experts techniques pour maintenir en conditions opérationnelles des plateformes de données très ambitieuses - Participation aux évolutions des plateformes, des services rendus, améliorer la fiabilité et les performances des clusters mis en place (setup, configuration, optimisation, troubleshooting) - Accompagnement nos clients dans leurs usages, les guider dans les meilleurs usages des produits - Force de proposition pour automatiser, industrialiser et rendre plus efficientes nos implémentations et nos interactions clients - Prise en charge le monitoring de nos plateformes afin de permettre et garantir le respect de nos SLAs - Prise en charge le RUN niveau 1/2/3 de nos platformes
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Lead DevOps Kafka H/F
LOMEGARD
Publiée le
Ansible
Apache Kafka
Kubernetes
1 an
550-630 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe en charge de plusieurs offres autour de Kafka, nous recherchons un profil DevOps Senior pour intervenir sur des environnements critiques, exploités à la fois sur des infrastructures On-Premise et sur cloud public. L’intervention couvre plusieurs offres Kafka avec des enjeux différents : MCO, administration avancée, automatisation, support expert et accompagnement de l’évolution des plateformes. Volet 1 — Plateformes Kafka On-Premise Assurer l’administration avancée des clusters Kafka Prendre en charge les activités de build et de run Apporter un support de niveau expert sur les incidents et problématiques complexes Contribuer à l’automatisation des tâches d’exploitation via Ansible et Bash Volet 2 — Offre Kafka PaaS en phase de transition Participer au maintien en conditions opérationnelles d’une offre historique hébergée sur IBM Cloud Contribuer à certains développements autour de composants Java et de microservices liés à Kafka Accompagner la trajectoire de fin de vie progressive de la plateforme Garantir la stabilité du service durant cette période de transition Volet 3 — Offre Kafka As Code Intervenir sur une offre stratégique en fort développement Automatiser le provisioning et l’exploitation des environnements Kafka Développer et maintenir des outils internes et des pipelines techniques Contribuer aux chaînes CI/CD, aux pratiques GitOps et à l’industrialisation des déploiements Participer à des développements en Python, Airflow et Terraform Environnements techniques complémentaires Intervention possible sur des socles Docker, Kubernetes et OpenShift
Offre d'emploi
DevOps senior Kafka
VISIAN
Publiée le
Apache Kafka
Python
1 an
Île-de-France, France
Contexte Une filiale d’un grand groupe bancaire est au cœur de la transformation technologique du groupe. Sa mission est de concevoir, développer et opérer des plateformes d’infrastructure modernes (PaaS, IaaS, CaaS) à destination de l’ensemble des métiers. Dans ce contexte, un profil DevOps senior est recherché pour renforcer la Squad Kafka, en charge de plusieurs offres Kafka industrielles. Ce besoin s’inscrit dans le remplacement d’une ressource clé quittant la squad. Le profil devra être au minimum équivalent en compétences, et idéalement contribuer au renforcement de l’équipe sur les sujets Kafka As Code et Kubernetes. Missions La personne interviendra sur trois offres Kafka distinctes : Kafka On‑Premise Administration avancée de clusters Kafka Activités Build & Run Support niveau expert Automatisation via Ansible et Bash Kafka PaaS V4 (offre en fin de vie) Offre actuellement exploitée sur IBM Cloud Contributions Java / microservices Kafka Maintien en conditions opérationnelles Accompagnement de la fin de vie progressive de l’offre Kafka As Code Offre stratégique en forte montée en puissance Exploitée sur IBM Cloud Automatisation du provisioning Kafka Développement et maintenance d’outils et de pipelines internes (Python, Airflow, Terraform) Intégration CI/CD et GitOps Par ailleurs, certains composants et agents CI/CD sont déployés sur des environnements conteneurisés (Docker / Kubernetes / OpenShift).
Offre d'emploi
Architecte KAFKA
LEVUP
Publiée le
Apache Kafka
Gouvernance
6 mois
Liège, Belgique
Architecte Kafka / AWS – Senior (+10 ans d’expérience)📍 Contexte Dans le cadre de projets Data & Cloud à forte criticité, nous recherchons un Architecte Kafka / AWS senior , capable de concevoir des architectures robustes tout en restant hands-on lorsque nécessaire . Tu interviendras sur des environnements complexes, à forts enjeux de performance, de scalabilité et de fiabilité. 🎯 Tes missions Concevoir et faire évoluer des architectures événementielles basées sur Apache Kafka Définir les architectures Cloud AWS (sécurité, performance, résilience, coûts) Être garant des choix techniques et bonnes pratiques Intervenir ponctuellement en hands-on (POC, troubleshooting, phases critiques) Collaborer avec les équipes de développement, DevOps et Data Accompagner les équipes dans la montée en compétences techniques Contexte international 🧠 Ton profil +10 ans d’expérience en architecture IT / Data / Event-driven Expertise confirmée sur Apache Kafka (design, exploitation, performance) Très bonne maîtrise de AWS (services Cloud, architectures distribuées) Solide compréhension des systèmes distribués À l’aise aussi bien en architecture qu’en implémentation terrain Connaissances .NET et/ou Angular appréciées Capacité à challenger les choix techniques et à vulgariser 🚀 Pourquoi nous rejoindre Projets techniques à forte valeur ajoutée Environnements Cloud & Data modernes Autonomie, confiance et responsabilité Équipe d’experts passionnés, sans micro-management
Offre d'emploi
Lead Dev Data Streaming
OCTOGONE
Publiée le
Apache Kafka
6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Mission freelance
Développeur Java Kafka Angular
Pickmeup
Publiée le
Angular
Java
6 mois
400-440 €
Maisons-Alfort, Île-de-France
Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur Fullstack Java / Angular pour intervenir sur des projets à forte valeur ajoutée. Vous serez amené à : Concevoir et développer des applications robustes en Java 17+ avec Spring Boot / Spring 5 Développer des interfaces modernes en Angular (8+) , TypeScript et HTML5 / CSS3 Participer à la mise en place d’architectures orientées microservices ( Kafka , MQ Series , JMS ) Développer et maintenir des APIs ( REST & SOAP ) Garantir la qualité du code via des outils comme JUnit , Sonar , et les bonnes pratiques CI/CD ( Jenkins , Gitlab , Maven ) Contribuer à l’amélioration continue des performances et du monitoring ( Dynatrace , Resilience4J ) Participer aux déploiements via Openshift / XLDeploy
Mission freelance
POT9139 - Un Architecte Solution Applicatif sur Paris
Almatek
Publiée le
Apache Kafka
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel
Mission freelance
Lead DevOps Kafka Senior – Assistance Technique (IBM Cloud / Kubernetes / Kafka as Code)
Deodis
Publiée le
CI/CD
1 an
600-650 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe technique en charge de plateformes de streaming de données, la mission consiste à intervenir en tant que Lead DevOps senior au sein d’une squad dédiée à plusieurs offres Kafka opérées à la fois on-premise et dans le cloud. Le consultant participera à l’administration avancée des clusters Kafka, aux activités de build et de run, ainsi qu’au support de niveau expert en environnement de production. Il contribuera également au maintien en conditions opérationnelles d’une offre en fin de vie, tout en accompagnant le développement d’une offre stratégique basée sur une approche “Kafka as Code”, incluant l’automatisation du provisioning, le développement d’outils et de pipelines (Python, Terraform, Airflow), et l’intégration CI/CD et GitOps. L’environnement technique repose notamment sur Linux, Docker, Kubernetes et des outils d’automatisation tels qu’Ansible et GitLab CI. Le poste requiert une forte autonomie, une expertise technique solide sur Kafka, ainsi qu’une capacité à intervenir en contexte critique, incluant une participation aux astreintes et à l’amélioration continue des processus d’exploitation et de supervision.
Offre d'emploi
Développeur Fullstack Java Kafka Angular H/F
Lexi INGENIERIE
Publiée le
Angular
Java
50k-54k €
Île-de-France, France
✨ Créé en 2003 et adossé au groupe Smart4engineering depuis 2019, nous accompagnons nos clients dans la conception, la gestion et la sécurisation de leurs infrastructures informatiques, pour les aider à relever les défis structurants d’aujourd’hui et de demain. 🔍 Dans le cadre de projets pour des clients grands comptes, nous recherchons un·e développeur·euse fullstack Java Angular Kafka avec une majeure Back et 6 ans d'expérience minimum. 🎯 Missions principales Concevoir et développer des solutions techniques : Participer à la déclinaison de la roadmap notation, en priorisant la mise en place du nouveau modèle. Développer des composants backend robustes et performants en Java 17 et SpringBoot. Intégrer des flux de données via Kafka pour assurer une communication efficace entre les systèmes. Développer des interfaces utilisateur : Créer des interfaces dynamiques et intuitives avec Angular 14 , en collaboration avec les équipes design et produit. Garantir la cohérence de l’écosystème : Travailler en étroite collaboration avec les équipes métiers et techniques pour assurer une intégration harmonieuse avec le moteur de notation existant. Participer à la documentation technique et fonctionnelle des solutions développées. Assurer la qualité et la performance : Réaliser des tests unitaires et d’intégration pour garantir la fiabilité des applications. Optimiser les performances des applications, notamment en interaction avec la base de données Oracle Exadata . 🛠 Compétences techniques requises Java (version 17) : Maîtrise avancée. SpringBoot : Expérience solide en développement d’applications backend. Kafka : Connaissance des flux de données et des architectures événementielles. Angular (version 14) : Expérience en développement frontend. Oracle Exadata : Expérience avec les bases de données Oracle, idéalement Exadata. Autres compétences appréciées : Connaissance des bonnes pratiques DevOps et des pipelines CI/CD. Expérience dans le secteur bancaire ou financier (un plus). 🧩 Soft Skills attendus Curiosité fonctionnelle Esprit d’équipe Autonomie et rigueur Force de proposition Bonne communication Ce que nous offrons 💼 Environnement de travail accueillant et stimulant 🤝 Référencements clients grands comptes dans des secteurs variés 📈 Entreprise en croissance : parcours de carrières évolutifs et missions à forte valeur ajoutée 🍽️ Carte Swile pour vos repas 🚇 50 % du titre de transport remboursé 🩺 Hélium pour la mutuelle et prévoyance santé Environnement à dimension internationale 📩 Intéressé·e ? N’hésitez pas à postuler ! Nous étudierons votre candidature avec attention et bienveillance.
Offre d'emploi
Développeur(se) Java Springboot & Kafka
ITEA
Publiée le
Apache Kafka
1 an
40k-45k €
400-550 €
Strasbourg, Grand Est
Les missions : Participer à l'élaboration et la réalisation de sujets techniques transverses Assurer l'évolutivité, la performance et la maintenabilité de la plateforme Participer aux choix techniques de l'équipe en matière de développement Contribuer à l'amélioration de l'intégration continue et aux outils de qualité de code du client Implémenter des solutions techniques Participer à la validation des développements livrés (réalisation de tests unitaires, revue de code) Analyser et corriger des anomalies
Mission freelance
Architecte Solution et Intégration SI
CAT-AMANIA
Publiée le
Apache Kafka
API
3 mois
400-690 €
Île-de-France, France
Architecte Solution Intégration SI Description de la mission Dans le cadre d'un programme de transformation majeure des processus et des solutions de financement, nous recherchons un Architecte Solution pour cadrer et sécuriser la trajectoire d'intégration entre le logiciel métier MILES et un écosystème applicatif complexe. La mission consiste à conduire des études d'architecture relatives aux flux et services d'intégration, à formaliser les choix de conception et à s'assurer de leur bonne prise en compte par les équipes de réalisation. Vous devrez produire et maintenir les livrables d'architecture critiques, notamment les Dossiers d'Architecture Technique (DAT), les schémas d'urbanisation et les matrices d'impacts. Un aspect essentiel de la mission repose sur votre capacité à challenger les solutions proposées par l'éditeur et l'intégrateur afin de garantir la conformité avec les standards internes en matière d'API, d'événementiel, de sécurité et d'observabilité. Vous contribuerez activement aux instances de gouvernance telles que les Design Authorities et les comités d'architecture pour assurer un reporting clair des décisions et des risques. Profil recherché Le candidat idéal doit justifier d'une expérience confirmée en architecture de solutions et en intégration de systèmes d'information, idéalement acquise dans le secteur bancaire ou financier. Une expertise technique approfondie est attendue sur les plateformes d'intégration modernes, incluant la gestion et la gouvernance d'API via OpenAPI/Swagger, ainsi que les architectures orientées événements s'appuyant sur Kafka. La maîtrise des outils de modélisation comme et des environnements collaboratifs Jira et Confluence est indispensable pour la production de documentations structurées. Une connaissance opérationnelle des enjeux de sécurité, du RGPD et des contraintes réglementaires de type DORA est nécessaire pour valider la robustesse des solutions proposées. Au-delà des compétences techniques, nous recherchons un profil doté d'une forte capacité d'analyse et d'une aptitude à travailler en réseau de manière autonome. La maîtrise de l'anglais est requise pour échanger avec des interlocuteurs internationaux et produire des supports de présentation de haute qualité. Une expérience préalable sur la solution MILES de l'éditeur Sofico constituerait un avantage concurrentiel majeur pour la compréhension immédiate des enjeux métiers du programme. Environnement de travail La mission s'exerce au sein de la Direction des Systèmes d'Information, plus précisément dans le domaine des applications techniques rattaché à un programme de transformation métier stratégique. Le consultant évoluera dans un écosystème multi-acteurs impliquant des équipes produits, des experts en sécurité, des spécialistes de la donnée et des équipes d'exploitation. L'organisation privilégie les méthodes de travail agiles, type Scrum ou Kanban, favorisant la collaboration continue et la réactivité face aux évolutions du projet. Le lieu d'exécution principal se situe dans le deuxième arrondissement de Paris, au sein de locaux modernes favorisant le travail d'équipe, bien qu'une ouverture aux propositions de travail à distance puisse être étudiée selon l'organisation du prestataire. L'environnement technique est à la pointe des standards actuels avec une forte culture de l'observabilité et du monitoring via des outils tels que Kibana ou OpenSearch. Le cadre de travail exige un haut niveau de professionnalisme et le respect de chartes éthiques et de sécurité strictes. L'intervenant bénéficiera d'une vision transverse sur l'ensemble de la chaîne de valeur du financement, depuis le front-office jusqu'au back-office, dans un contexte de refonte globale de l'architecture du système d'information.
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Mission freelance
Responsable Intégration ETL & Data Streaming (Talend / Kafka)
Kamatz
Publiée le
Apache Kafka
API
Gitlab
6 mois
La Défense, Île-de-France
Vos missions principales Au sein de l’équipe Architecture & Intégration, vous pilotez les services d’intégration de données autour des technologies Talend (Cloud / plateforme hybridée) et Kafka Confluent Cloud . À ce titre, vous serez en charge de : Maintien en conditions opérationnelles Support, suivi et maintenance des solutions existantes (CRM, Annuaire, PIM) Cadrage & accompagnement des projets Analyse et challenge des besoins métiers Définition des architectures techniques Conception des flux d’intégration Pilotage d’équipe internationale Management d’une équipe basée en Inde (développement, tests, déploiement) Organisation, priorisation et suivi des activités Gestion de projet Élaboration des plans de charge Construction et suivi des plannings Administration des plateformes Supervision et gestion opérationnelle de Talend (incluant On-Prem : upgrades, monitoring, incidents) Administration de Kafka Confluent Cloud Suivi budgétaire Pilotage de la facturation des plateformes Amélioration continue Définition et diffusion des bonnes pratiques (configuration, développement, architecture) Stack technique Talend Data Integration (v8) – Expert Kafka / Confluent Cloud API (JSON, XML, CSV) Java 8+ SQL / Bases de données Linux / Unix GitLab Salesforce (notions)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- imposition des dividendes
- Etat du marché 2026: rebond ou stagnation ?
- Passer de freelance en portage : quelle société choisir
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
269 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois