Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Votre recherche renvoie 41 résultats.
Mission freelance
Expert Data Streaming Kafka
JobiStart
Publiée le
Apache Kafka
Spark Streaming
3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
Offre d'emploi
Business Analyst confirmé
VISIAN
Publiée le
Apache Kafka
Exadata Cloud@Customer (ExaCC)
1 an
40k-45k €
260-500 €
Paris, France
Descriptif du poste Une organisation bancaire majeure a lancé en S2 2025 la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que l'organisation recherche un Business Analyst confirmé pour bien comprendre l'ensemble des besoins qui arrivent actuellement, participer à leur analyse, mais aussi aider à coordonner l'ensemble des travaux pour en assurer la bonne livraison, dans les temps. La mission consistera à intégrer l'équipe agile en place, clarifier les besoins exprimés par les autres équipes fonctionnelles et techniques notamment du programme, afin de clarifier la backlog de l'équipe et participer à sa planification avec le tech lead et ses coéquipiers.
Mission freelance
Data Engineer Kafka/JAVA
ALLEGIS GROUP
Publiée le
Apache Kafka
Java
Spark Streaming
4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Offre d'emploi
Business Analyst Monétique
VISIAN
Publiée le
Apache Kafka
Java
Mongodb
1 an
40k-45k €
400-620 €
Paris, France
Descriptif du poste Le prestataire devra cadrer et spécifier les travaux "data" permettant d'alimenter le socle Data Monétique. Le prestataire sera chargé en priorité sur les sujets des Flux entrant et sortant du Socle data monétique liées au programme eStreem. Les usages pourront être des sujets Acquisition ou Emission. Ce socle est déjà alimentée par certaines applications en streaming via des messages Kafka et en batch via des fichiers plats par CFT. En terme d'infrastructure, le périmètre applicatif est basé sur un socle IBM COS (Raw Layer) et MongoDB (Organized Layer). Le socle data va être la pierre angulaire et la source de nombreux uses cases aval. La mise à disposition des données se fera soit au travers d'API pour des Front-End soit via des demi-interfaces pour d'autres applications. L'activité se déroule en projet Agile.
Offre d'emploi
Ingénieur Data Event Management
VISIAN
Publiée le
Apache Kafka
Java
Python
1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Mission freelance
Expert Technique Cash Management (Swiftnet et ISO20022 OBLIGATOIRE)
Comet
Publiée le
Apache Kafka
Apache Spark
6 mois
600-750 €
Paris, France
Objectifs de la mission Intervenir en tant qu’expert technique sur des applications critiques de Cash Management dédiées au traitement de flux financiers à forte volumétrie. La mission couvre l’ingestion, la transformation et la diffusion de flux batch et temps réel , ainsi que l’intégration sécurisée avec l’écosystème bancaire international via SWIFTNet et les messages ISO 20022 , dans un environnement distribué basé sur Scala, Java, Python, Kafka, Spark et Hadoop . Rôle et responsabilités Concevoir, développer et maintenir des composants back-end robustes en Scala / Java / Python Intervenir sur des architectures orientées événements et streaming ( Kafka, Spark, ) Garantir la performance, la qualité du code et la stabilité des traitements de flux critiques Contribuer aux choix d’architecture, d’optimisation et de supervision ( Docker, Kubernetes, Jenkins, Sonar, Datadog ) Travailler en étroite collaboration avec les équipes métier Cash Management / Paiement dans un cadre agile
Mission freelance
Développeur Logiciel Embarqué Java (H/F)
Cherry Pick
Publiée le
Apache Kafka
Apache Maven
C/C++
12 mois
560-670 €
Paris, France
Au sein d’un environnement IT critique à très grande échelle, vous intégrerez une équipe en charge d’un système central événementiel asynchrone , par lequel transitent les informations de plusieurs dizaines de millions d’équipements connectés. Ce système assure notamment l’exécution de services, la collecte de données de mesure et le pilotage à distance d’équipements terrain. Vous interviendrez plus précisément sur un logiciel Java embarqué , déployé sur des concentrateurs, assurant l’interface entre les équipements de terrain et le système d’information central. Les équipes couvrent l’ensemble du cycle de vie applicatif : architecture, conception, choix techniques, développement, tests, déploiements (jusqu’en production) et support. Missions : En tant que Développeur Logiciel Embarqué Expert , vos responsabilités incluent : Participation à l’amélioration continue de l’infrastructure Développement de nouvelles fonctionnalités Développement de fonctionnalités sur matériels embarqués Maintenance et évolution des pipelines CI/CD (Jenkins) Livraisons en environnements de recette et de production, suivi post-déploiement Collaboration étroite avec les équipes de développement et d’exploitation Reprise des tests de performance et mise en place d’un banc de performance Mise en place et exploitation de bancs de test incluant : Concentrateurs Raspberry Pi Modems et filtres CPL Livrables attendus : versions applicatives issues du développement du logiciel embarqué.
Mission freelance
Responsable de Domaine – Socles Industriels & Cloud.
Groupe Aptenia
Publiée le
Apache Kafka
API
CI/CD
2 ans
460-600 €
Paris, France
Dans le cadre du renforcement de sa Direction des Systèmes d’Information, un grand groupe mutualiste du secteur de la protection sociale recherche un Responsable de Domaine – Socles Industriels & Cloud . Rattaché au Département Socles et Cloud , ce rôle est central pour assurer la continuité, la performance et l’évolution des socles industriels mis à disposition des équipes de développement et projets applicatifs. Le responsable de domaine pilote à la fois : la gestion opérationnelle et managériale des équipes, la stratégie technologique des socles, la transformation Agile & DevOps , la maîtrise budgétaire des plateformes et outils. Missions principales Gestion opérationnelle et managériale Management et animation de 3 équipes (environ 20 collaborateurs , internes et prestataires ESN). Développement des compétences, accompagnement et maintien d’un climat collaboratif. Pilotage de la relation avec les prestataires. Garantie de la continuité de service et du support aux équipes de développement. Pilotage des socles industriels Évolution des technologies communes de développement : Frontend / IHM Services Backend APIs Traitements Batch Supervision des solutions d’intégration : ESB API Management Kafka Pilotage des plateformes CI/CD & DevSecOps : GitLab / GitLab CI SonarQube Nexus Snyk Gestion des outils collaboratifs DSI : JIRA Confluence Automatisation des déploiements : Ansible Orchestration des releases (CloudBees CD/RO) Accompagnement & transformation Accompagnement des équipes dans l’appropriation des socles et bonnes pratiques. Évolution des paradigmes d’architecture : APIsation Micro-services Plateformes de conteneurs Identification des besoins émergents et propositions d’évolutions technologiques. Pilotage budgétaire Élaboration, suivi et optimisation des budgets projets . Gestion du budget MCO des plateformes et outils. Contribution à l’optimisation des coûts et à la rationalisation des usages. Contribution à la feuille de route DSI Participation active à la définition de la roadmap technologique . Veille technologique continue. Représentation des socles industriels auprès des autres départements DSI et des métiers.
Offre d'emploi
Business Analyst F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
Java
Oracle Database
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Développeur Java / C++ Logiciel embarqué
Comet
Publiée le
Apache Kafka
C/C++
J2EE / Java EE
60 jours
370-800 €
Paris, France
Rejoins une équipe innovante qui développe et fait évoluer le Logiciel Unique embarqué sur les concentrateurs, cœur critique des systèmes de gestion des compteurs, avec un focus sur des architectures distribuées et événementielles. 🔎Je cherche donc un/-e Développeur Java / C++ pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Développer de nouvelles fonctionnalités sur le Logiciel Unique embarqué Maintenir et faire évoluer les jobs Jenkins et CI/CD Livrer en recette et production, assurer le suivi et la qualité des versions Mettre en place et automatiser des bancs de tests (concentrateurs, Raspberry Pi, modems, filtres CPL) Reprendre et améliorer les tests de performance Participer à l’amélioration continue de l’infrastructure et aux choix techniques 🎯 Stack : Java 8+++ / C/C++ +++ / Java JEE (JTA, JPA, CDI, JAX-RS) / Kafka, RabbitMQ, JMS / Maven, Jenkins / Monitoring (Grafana, InfluxDB…) / Python / Conteneurisation / Infrastructure-as-Code / Agilité Scrum & SAFe / Yocto 📍 IDF – Paris : 2 jours de TT 🏠 Si tu as au moins 2 ans d’expérience sur logiciels embarqués et une solide maîtrise de Java et C/C++ , cette mission est faite pour toi !
Mission freelance
Dev Java / Angular séninor - Finance de marché
SURICATE IT
Publiée le
Angular
Apache Kafka
API
3 ans
400-580 €
Paris, France
Contexte du projet Une équipe interne a besoin de renfort pour concevoir et développer la prochaine génération de fonctionnalités d’un outil interne de test , incluant notamment : le versioning et le branching des cas de test, les tests basés sur des modèles, l’intégration de fonctionnalités d’intelligence artificielle, l’évolution et la maintenance du socle existant. La mission principale consiste à assurer : le développement de nouvelles fonctionnalités, la maintenance et l’amélioration du code existant, la fiabilité et la performance globale de l’outil de test utilisé pour valider un moteur de trading critique. L’activité s’effectue en collaboration étroite avec les équipes de développement, de QA, de tests d’intégration et de déploiement, afin de garantir un haut niveau de qualité logicielle. L’équipe projet fait partie d’un périmètre cœur (Core) , intervenant sur des composants stratégiques. Environnement technique Écosystème Java (Spring, Hibernate, etc.) Interface utilisateur développée en Angular Tests automatisés basés sur Selenium WebDriver et autres outils de test Organisation Agile à l’échelle / Scrum, avec forte interaction DevOps Participation régulière à l’analyse d’incidents impliquant l’outil de test, même lorsque celui-ci n’est pas la cause directe Utilisateurs répartis à l’échelle européenne (anglais requis) Environnements de développement : Windows / Linux Outils : Git, Jenkins (scripts Groovy / Bash) Description fonctionnelle du projet L’application concernée est utilisée pour tester : un moteur de trading principal, des outils de rapprochement (reconciliation), ainsi que plusieurs autres applications critiques du système d’information. Le backend fonctionne sous Linux (distribution RedHat) et s’intègre avec de nombreux environnements via : Kafka, serveurs TCP/IP, bases de données SQL, API et services externes. Livrables attendusAssurance Qualité (QA) Conception et implémentation des plans de test, cas de test et scripts de test Rédaction de rapports QA associés aux livraisons Identification, documentation et suivi des anomalies et problèmes de performance ou de production Développement et maintenance des tests automatisés (Selenium WebDriver en Java et autres outils) Participation aux revues de code et analyses qualité Maintenance et enrichissement du référentiel de tests dans l’outil de gestion des exigences et tests (ex. Jira / XRay) Développement d’applications Java Conception, développement et maintenance d’applications Java robustes, scalables et performantes dédiées aux outils de test Contribution à l’analyse des besoins et à la rédaction des spécifications techniques et de la documentation projet Collaboration étroite avec les autres développeurs pour intégrer les nouvelles fonctionnalités dans un environnement complexe et critique
Offre d'emploi
Développeur Full stack (Java, Angular et Python)
R&S TELECOM
Publiée le
Angular
Apache Kafka
DevOps
12 mois
40k-48k €
400-420 €
Paris, France
Développeur Full stack (Java, Angular et Python) Compétences techniques minimales : Bonne maîtrise du language de programmation Java (17+) Bonne maîtrise du language de programmation Angular Bonne maîtrise du language de programmation Python Connaissance de Kafka, Kafka Connect Connaissance de spring Connaissance d’une base de données relationnelle ou NOSQL Expérience dans des environnements distribués sous fortes contraintes en matière de performance, intégrité et disponibilité Méthodologie agile (SAFE) Méthodologie DevOps
Mission freelance
Consultant Technique API & Event (REST / Kafka)
KEONI CONSULTING
Publiée le
API
Apigee
Run
18 mois
100-350 €
Paris, France
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Mission freelance
Lead Dev Python - FastAPI
Cherry Pick
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)
ARENA SI
Publiée le
Apache Kafka
DevOps
Finance
12 mois
75002, Paris, Île-de-France
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Offre d'emploi
Data & IA Engineer (H-F)
Big Apps
Publiée le
AI
Apache Airflow
Apache Kafka
Paris, France
Big APPS recrute un(e) Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
41 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois