Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Votre recherche renvoie 39 résultats.
Offre d'emploi
Expert KAFKA
SMILE
Publiée le
Apache Kafka
Kubernetes
6 mois
40k-70k €
400-700 €
Paris, France
Bonjour, Nous recherchons un Expert Kafka, avec des compétences sur Kubernetes, java et angular pour une mission secteur bancaire. Pilotage technique Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des pipelines sous Gitlab CI Réaliser des tests techniquement approfondis de bon fonctionnement applicatif, assurer la cohérence et la robustesse technique des traitements Participer à la conception des architectures cibles en lien avec les architectes et les équipes DSI Contribuer à l’amélioration continue des performances et de la stabilité des pipelines 2. Conception et industrialisation Concevoir, développer et maintenir des pipelines Gitlab CI, KSQLDB (Kafka) Mettre en œuvre les solutions d’orchestration et d’automatisation Revue et validation des dossiers de conception réalisés par les équipes de développement Veiller à la documentation, à la supervision et au monitoring des traitements. 3. Encadrement et accompagnement Accompagner techniquement les développement dans leurs développements et leur montée en compétence Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring). Faciliter les échanges entre les équipes Projet , Architecture, Sécurité et Métier. 4. Gouvernance et qualité Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données. Collaborer avec la Release Manager et être garant du respect par l'équipe projet, des process qualité de gestion des releases Participer à aux chantiers instancés par l'équipe Sécurité, par exemple la mise en œuvre du plan de secours informatique 2 fois par an Compétences techniques/fonctionnelles Langages et outils CI/CD & Infra : GitLab CI, Docker, Kubernetes Base de donnée : Mongo shell, PostgreSQL, Elastic Search Architecture & bonnes pratiques Architecture microservices Performance et optimisation des traitements applicatifs sur Kubernetes Sécurité, gouvernance et qualité des données Supervision et observabilité (logs, alertes, métriques)
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
POT9139 - Un Architecte Solution Applicatif sur Paris
Almatek
Publiée le
Apache Kafka
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Mission freelance
CHEF DE PROJET IT (TRANSORMATION PLATEFORME FINANCE DE MARCHE)
PARTECK INGENIERIE
Publiée le
Apache Kafka
DevOps
Microservices
12 mois
400-680 €
75000, Paris, Île-de-France
ANGLAIS MANDATORY Contexte Dans le cadre d’un programme de transformation, une institution financière modernise sa plateforme Middle & Back Office dédiée au traitement de produits dérivés. L’environnement cible repose sur une architecture moderne (microservices, APIs, messaging, bases de données relationnelles, interface web). Objectif Piloter un projet de transformation en garantissant la livraison conforme aux objectifs fonctionnels, techniques, de qualité et de délais. Responsabilités principales Pilotage du projet Définition et suivi de la roadmap (analyse, conception, développement, tests, déploiement) Gestion du périmètre, des livrables et des critères d’acceptation Suivi du planning, du budget et des ressources Gestion des parties prenantes Animation des comités projet et techniques Coordination entre métiers, opérations et équipes IT Gestion des demandes d’évolution (change management) Méthodologie Agile Animation des rituels Scrum Suivi des indicateurs Agile (backlog, avancement, qualité) Risques & conformité Identification et pilotage des risques (techniques, opérationnels, réglementaires) Mise en conformité avec les exigences de sécurité et de régulation Qualité & delivery Supervision des phases de tests et de validation Mise en place et suivi des processus CI/CD Garantie du respect des standards techniques et documentaires Reporting & communication Suivi des KPIs et reporting régulier aux sponsors Communication sur l’avancement et les points critiques Accompagnement du changement Formation et transfert de compétences aux équipes opérationnelles Support à la mise en production et suivi post-déploiement Profil recherché Expérience Expérience significative en gestion de projets IT complexes, idéalement en environnement financier Compétences Maîtrise des méthodologies Agile Bonne compréhension des architectures modernes (microservices, APIs, DevOps) Connaissance des environnements Middle/Back Office appréciée Qualités personnelles Leadership et capacité à coordonner des équipes pluridisciplinaires Excellente communication Esprit d’analyse et orientation résultats
Offre d'emploi
Développeur Java / Angular / Kafka – Secteur bancaire (F/H)
CELAD
Publiée le
Angular
Apache Kafka
J2EE / Java EE
12 mois
40k-50k €
400-450 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Java Fullstack (Back majoritaire) pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Contribuer à la mise en œuvre de la roadmap notation, avec un focus sur le déploiement d’un nouveau modèle de scoring . Assurer la cohérence de ce nouveau moteur de notation avec l’écosystème existant Concevoir et développer des API permettant l’accès aux services internes, en garantissant performance et sécurité Participer à la définition des nouvelles API en collaboration avec les équipes métiers et les architectes Développer et maintenir les API sur un environnement Java (Spring Boot) Mettre en place les tests unitaires et d’intégration associés à chaque développement Déployer les API sur les différents environnements Collaborer avec les équipes techniques et métiers dans un contexte agile et transverse
Offre d'emploi
Développeur Java Full Stack (H/F)
Diggers
Publiée le
Apache Kafka
Back-end
Front-end
45k-68k €
Paris, France
TON CHALLENGE Participer à des projets stimulants dans la banque , la finance ou le retail au sein d’une équipe soudée et passionnée : Concevoir et développer des applications full stack à forte valeur ajoutée , basées sur des architectures microservices et des flux temps réel Kafka Analyser les besoins utilisateurs et proposer des solutions techniques performantes et scalables Développer de nouvelles fonctionnalités , que ce soit dans le cadre d’évolutions ou de projets from scratch Implémenter des flux de données événementiels via Apache Kafka Participer aux tests, revues de code et à la mise en production continue (CI/CD) Collaborer en méthodologie agile et partager les bonnes pratiques de développement au sein d’une communauté d’experts
Offre d'emploi
DataOps Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Offre d'emploi
Expert Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre d’un programme de structuration des usages Fast Data, nous recherchons un Expert Kafka pour accompagner les équipes projets et promouvoir les bonnes pratiques autour du streaming événementiel. Vous interviendrez sur l’accompagnement des équipes applicatives dans l’adoption de Kafka, depuis la conception des flux jusqu’à la mise en production, en adressant des problématiques variées (design des topics, schémas, sécurité, performance). Vous participerez à la mise en place de mécanismes avancés tels que l’authentification OAuth pour les clients Confluent Cloud et à la définition de stratégies de gouvernance des flux. Vous contribuerez à la livraison de plans de continuité d’activité et de reprise après sinistre garantissant l’intégrité des données. Vous animerez une communauté technique autour du Fast Data, en partageant les retours d’expérience, en organisant des sessions de présentation et en contribuant à la montée en compétence collective sur les technologies de streaming.
Mission freelance
Chef de Projet - Expert ETL
EMGS GROUP
Publiée le
Administration linux
Apache Kafka
Java
1 an
540-650 €
Paris, France
nous sommes à la recherche d'un Expert Intégration ETL / Data Streaming pour piloter et faire évoluer les services d’intégration autour de Talend Cloud / Hybride et Kafka Confluent Cloud . Vos missions : Assurer le support, la maintenance et le suivi des projets existants (CRM, annuaire, PIM…) Accompagner la création de nouveaux projets : recueil du besoin, challenge métier, cadrage technique, définition d’architecture et conception des flux Piloter une équipe offshore (développement, tests, déploiement) Gérer le plan de charge et les plannings Administrer et superviser la plateforme Talend ainsi que les composants On-Premise (upgrade, monitoring, résolution d’incidents) Assurer l’administration et le suivi opérationnel de Kafka Confluent Cloud Suivre la facturation des deux plateformes Définir et diffuser les bonnes pratiques techniques et de développement
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Ingénieur DevOps/ Administration MongoDB
CAT-AMANIA
Publiée le
Apache Kafka
Mongodb
12 mois
400-580 €
Paris, France
Vous rejoindrez notre équipe en charge de l’administration et du maintien en condition opérationnel de la plateforme MongoDB Atlas ainsi qu’à la mise en production et à l’industrialisation des projets. Vos missions consisteront à contribuer: Accompagner les équipes projet dans la mise en place des bases Gérer les installations, montées de version, paramétrage et optimisation des bases Amélioration des performances (tuning des requêtes SQL, configuration des services) Assurer le support en interne en cas de bug ou d’anomalies Assurer la relation avec les fournisseurs externes (MongoDB) Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Assurer le monitoring et Observabilité Mettre en place et améliorer les solutions de monitoring de la plateforme Superviser les clusters et les noeuds sur MongoDB Atlas Assurer la surveillance des services (Sharding, Archive Online, …) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Contribuer à l'audit et à la gouvernance des ressources MongoDB Atlas Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques (interface avec KMS Google et FortaniX, gestion des rôles, cryptage, interface avec notre solution SoC ) Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement
Mission freelance
Expert / LEAD technique Java H/F
LeHibou
Publiée le
Apache Kafka
Apache Maven
Java
1 an
400-550 €
Paris, France
Notre client dans le secteur Banque et finance recherche un/une Expert technique JavaH/F Description de la mission: Expert technique Java Contexte et objectif de la mission L'entreprise souhaite développer une brique applicative permettant d'unifier l'envoi de communications à des contacts pour les applications de son système d'information. Ces communications pourront être diffusées sur différents médias, dans un contexte de très forts pics de charge liés aux besoins métiers. Cette brique comprend : • Des traitements via des conteneurs applicatifs • Une IHM d'administration d'exploitation Dans ce contexte, une équipe est mise en place au sein du pôle centre de contacts afin de construire cette application conformément à l'étude réalisée et aux bonnes pratiques internes. L'équipe sera constituée d'un expert technique Java, d'un développeur senior Java, associés à un développeur junior apprenti. Un pilote projet et un architecte internes complèteront le dispositif à temps partiel. Les projets seront gérés en méthode agile, avec un pilotage interne. Les outils utilisés sont Jira, Confluence et GitLab. Missions principales L'expert technique sera garant de la bonne réalisation technique de la solution et du respect des principes d'architecture définis. Il aura pour responsabilités : • Assurer l'animation technique de l'équipe • Assister les coéquipiers sur les sujets techniques • Travailler en lien avec le chef de projet et l'architecte • Prendre en charge une partie des développements • Consacrer environ 75 % de son temps à la réalisation et 25 % au support des membres de l'équipe Attendus organisationnels Le candidat devra : • Comprendre les attendus techniques et fonctionnels en lien avec l'architecte et le product owner • Faire preuve de savoir-faire et de savoir-être dans l'animation technique de l'équipe : cadrage, diffusion des bonnes pratiques, relecture de code • Structurer et organiser les développements et les tests • Contribuer à la rédaction des user stories • Apporter un support technique aux autres développeurs de l'équipe L'entreprise recherche un profil ouvert, volontaire, favorisant la coopération et la collaboration, souhaitant contribuer activement à la construction d'un collectif.
Offre d'emploi
Développeur full stack
FC Consulting
Publiée le
Apache Kafka
DevOps
Java
12 mois
40k-50k €
350-410 €
Paris, France
Les principales missions confiées sont : Contribuer à la conception et au développement des composants applicatifs. Définir et implémenter les tests unitaires des modules sous responsabilité. Respecter les standards de développement définis par le projet et prendre en compte les indicateurs des outils d’analyse de code (Sonar). Garantir la conformité aux exigences non fonctionnelles : performance, montée en charge, résilience, disponibilité. Proposer et développer des prototypes techniques. Participer aux revues de code et à l’amélioration continue. Rédiger et maintenir la documentation technique (en anglais). Collaborer étroitement avec les autres membres des équipes projet, dans un environnement international .
Mission freelance
Développeur Java Angular (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Angular
Apache Kafka
Java
12 mois
400-550 €
Paris, France
Description : Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps et outils d’industrialisation.
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
39 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois