Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka

Votre recherche renvoie 224 résultats.
Freelance
CDI
CDD

Offre d'emploi
DevOps engineer (KAFKA)

Halian
Publiée le
Apache Kafka
Azure DevOps
DevOps

3 ans
Luxembourg
Relocalisation au Luxembourg ou à la frontière entre la France et le Luxembourg requise, car il s’agit d’un rôle hybride et non en télétravail complet. Notre client renforce une équipe DevOps responsable des environnements Windows, Unix et Azure. Le poste implique la gestion des opérations, l’automatisation et la sécurité pour des applications critiques. Responsabilités : Administrer et améliorer Apache Kafka : RBAC, architecture, gouvernance des topics/ACL, intégration des applications et accompagnement des membres de l’équipe. Gérer Tomcat/Apache et optimiser les configurations. Assurer la gestion complète des certificats SSL (CSR, chaînes de certificats, renouvellements). Automatiser les processus avec Ansible et appliquer les bonnes pratiques Git. Mettre en œuvre les processus ITIL (Incident, Changement, Problème), maintenir la documentation et garantir une communication claire. Fournir un support de niveau 2/3 et participer aux astreintes. Qualifications et compétences : Apache Kafka : RBAC, architecture, intégration, mentoring. Tomcat / Apache : Configuration et optimisation. Gestion SSL : Certificats, CSR, renouvellements. Ansible : Automatisation et CI/CD. Git : Maîtrise des bases du contrôle de version. ITIL : Processus Incident, Changement, Problème. Atouts supplémentaires : IBM WebSphere (WAS), Red Hat JBoss EAP, IIS, VTOM, Nexus, IFS, expérience avec Red Hat sur Power Systems.
CDI

Offre d'emploi
Développeur Java Kafka/Python F/H

ACENSI Ile de France
Publiée le
Apache Kafka
Java
Python

Île-de-France, France
Dans le cadre d’un projet stratégique en finance de marché, nous recherchons un expert technico-fonctionnel pour intervenir sur une plateforme de pricing utilisée dans un environnement critique, réglementé et international. La mission porte sur le développement et l’évolution d’une librairie de pricing Java déployée sur une grille de calcul, ainsi que sur des applications Cloud associées, utilisées par des équipes métiers et IT à l’échelle européenne. Missions principales : Analyse et formalisation des besoins métier Rédaction des spécifications fonctionnelles et techniques Développement et maintenance applicative en Java 17 et Python Maintenance et évolution d’une librairie de pricing (Apache Ignite) Réalisation d’analyses quantitatives : courbes de taux, cashflows, sensibilités, pricing d’instruments structurés Définition et exécution des tests (unitaires, fonctionnels, intégration, performance) Support aux équipes IT et métiers Analyse et accompagnement des migrations Cloud Support à la production et gestion des incidents Participation aux déploiements et à la gestion des environnements
Freelance

Mission freelance
TechLead Data Engineer

MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark

6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
Freelance

Mission freelance
Pilote WMS

HAYS France
Publiée le
Apache Kafka
WMS (Warehouse Management System)

3 ans
100-450 €
Lille, Hauts-de-France
Responsabilité du contenu technique du projet Définir la conception technique et rédiger les spécifications techniques détaillées . Contribuer aux choix de solutions/progiciels en lien avec la MOA. Participer au développement et à l’intégration. Définir les plans de tests et participer aux recettes . 2. Conduite du projet Organiser, coordonner et animer l’équipe de maîtrise d’œuvre. Arbitrer les points de blocage entre intervenants. Superviser le déroulement du projet et garantir la qualité des validations. Assurer la communication interne MOE. Gérer la relation avec les fournisseurs de la signature à la validation finale. 3. Déploiement et accompagnement Déployer la nouvelle application ou service dans les entrepôts. Organiser la maintenance et le support utilisateur. Participer à la formation des équipes. Assurer le suivi post-déploiement. 4. Garant de la triple contrainte (Qualité – Coût – Délai) Garantir le respect du cahier des charges, des délais et des coûts. Proposer des ajustements d’objectifs si nécessaire (qualité, coût, délai).
Freelance

Mission freelance
Data Engineer Kafka/JAVA

ALLEGIS GROUP
Publiée le
Apache Kafka
Java
Spark Streaming

4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
CDI
Freelance
CDD

Offre d'emploi
Développeur Camunda & Sécurité Applicative

RIDCHA DATA
Publiée le
Apache Kafka
Camunda
LDAP

1 an
Ivry-sur-Seine, Île-de-France
📌 Contexte de la mission Dans le cadre du développement et de l’automatisation de processus métiers complexes, la mission consiste à concevoir et implémenter des workflows sur la plateforme Camunda, tout en garantissant un haut niveau de sécurité applicative. Le consultant interviendra sur des architectures microservices et participera au développement d’API sécurisées. 🎯 Missions principales • Modéliser et automatiser les workflows métiers avec Camunda (BPMN) • Concevoir et développer des API REST (et SOAP si nécessaire) • Développer des microservices en environnement Java / Spring Boot • Réaliser des revues de code (code review) • Mettre en place la sécurité applicative : Authentification et autorisation (OAuth2, OpenID Connect, JWT, Keycloak, RBAC, MFA) Chiffrement des données (TLS, AES) Protection contre les failles (SQL Injection, XSS, XXE) • Rédiger les spécifications techniques et la documentation associée 🧰 Livrables attendus • Modélisation des workflows Camunda • Code source des applications et services • Spécifications techniques • Documentation sécurité applicative ⚙️ Compétences techniques (impératives) ✔ Camunda BPM ✔ LDAP ✔ Spring Boot ✔ Kafka ✔ Architecture microservices ✔ Keycloak ✔ Sécurité applicative avancée
Freelance

Mission freelance
[SCH] Développeur Java / Kafka – RUN WebLogic - 1205

ISUPPLIER
Publiée le

10 mois
300-350 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de l’exploitation et du maintien en conditions opérationnelles des infrastructures historiques d’un client basé à Bordeaux, nous recherchons un Développeur Java / Kafka avec une forte expertise WebLogic en environnement de production. La mission est orientée 100 % RUN, avec des enjeux forts de stabilité, fiabilité et industrialisation, dans un contexte de Lean IT / Kanban (flux tiré), sans fonctionnement en sprint. Le consultant interviendra sur des environnements critiques et devra être autonome immédiatement sur WebLogic. Missions principales : RUN & exploitation applicative : Assurer le support N2 / N3 sur les environnements applicatifs Gérer les incidents, changements et demandes via ServiceNow (SNOW) Participer aux RPI (Root Cause Analysis) des incidents majeurs Organisation et animation possible de PRI internes Participation aux COPIL BUS Gestion des tâches quotidiennes via Jira Documentation et pilotage backlog via Jira & Confluence Administration WebLogic & middleware : Administration et exploitation des environnements Oracle WebLogic Server Gestion des domaines WebLogic en cluster et standalone Installation et configuration de domaines WebLogic sur FAB & PROD Déploiement d’applications EAR / WAR Manipulation de l’arbre JNDI Configuration et gestion des files JMS Gestion des SAF (Store and Forward) Configuration DNS Tests de changements de configuration sur environnements de test Industrialisation & automatisation : Mise en place d’actions d’industrialisation Développement de scripts Shell Rédaction de playbooks Ansible Intégration avec des chaînes CI/CD (GitLab, Jenkins, Concourse) Diagnostic des logs via ELK
Freelance
CDI

Offre d'emploi
Testeur / QA Engineer Junior

Codezys
Publiée le
Apache Kafka
JIRA
QA

12 mois
40k-45k €
240-310 €
Lille, Hauts-de-France
Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un QA Engineer pour intégrer nos équipes. Objectif de la mission En tant que QA Engineer, vous serez au cœur de la validation technique du projet. Vous travaillerez en étroite collaboration avec l'équipe produit et les développeurs pour assurer la qualité des livrables et la fiabilité des flux de données. Vos responsabilités Concevoir des plans de tests et des scénarios de tests détaillés fonctionnels et techniques à l’aide de JIRA et Xray Préparer les jeux de données nécessaires pour simuler des flux réalistes. Exécuter des campagnes de tests des flux d'intégration (Kafka et Google Pub/Sub) Réaliser les tests métier et valider les processus entrepôt (Réception, stockage, préparation, expédition…) Qualifier précisément les anomalies, suivre leur résolution avec les équipes de développement et l’éditeur, et valider les correctifs. Être force de proposition sur les processus métier : vous ne vous contentez pas de vérifier si "ça marche", vous challengez la solution pour qu'elle soit robuste et utilisable sur le terrain. Participer aux cérémonies agiles de l’équipe
Freelance
CDD

Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)

CONCRETIO SERVICES
Publiée le
Apache Kafka
Cloudera
Production

1 an
65k-70k €
450-500 €
Gironde, France
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer

ANDEMA
Publiée le
Apache Kafka
Apache Spark
Hadoop

12 mois
50k-60k €
450-500 €
Lille, Hauts-de-France
Dans le cadre d'un dispositif Data Factory , nous recherchons un(e) Tech Lead Data Ingénieur(e) expérimenté pour intervenir sur une plateforme Big Data au cœur d’un projet critique en cours de déploiement . Vous jouerez un rôle clé dans la montée en puissance de la plateforme et dans la montée en compétences du client sur la stack data, dans un contexte présentant plusieurs points de fragilité nécessitant robustesse, leadership technique et sens des responsabilités . Missions : Réaliser les développements permettant d’ accélérer la mise à disposition des données sur la plateforme Big Data, dans le cadre d’un projet critique. Encadrer techniquement l’équipe de développement : - Suivi technique - Garantie des bonnes pratiques de développement - Qualité, performance et robustesse des livrables Faire monter en compétences l’équipe technique et le client sur la stack data (accompagnement, transmission, pédagogie). Environnement & conditions : Langue française obligatoire, anglaise apprécié Localisation : Hauts-de-France, proximité Lille Présence : 3 jours par semaine sur site Démarrage : ASAP
Freelance

Mission freelance
Tech Lead java/kafka

ESENCA
Publiée le
Apache Kafka
Github
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
A ce titre, tu es notamment en charge : ● De concevoir et aider à la réalisation de solutions robustes et efficientes. ● De contribuer aux études et définitions des spécifications applicatives et techniques de la solution ● De participer à l’ensemble des rituels agiles (Daily meetings, Affinage, Sprint review, Retrospective) En tant que TechLead, tu connais les nouvelles tendances et opportunités technologiques et tu sais les partager. Tu es en relation avec les différents pôles au sein du domaine Product Master Data, et plus généralement de la plateforme digitale Produit. Profil et technologies : De formation technique, tu as acquis une expérience de 10 ans minimum dans le développement Java. Tu maîtrises parfaitement le développement d’API, l’utilisation de Kafka et les modèles de bdd. Doté d’une sensibilité fonctionnelle, tu analyses et challenges les demandes d’évolutions et leur complexité. Tu es force de proposition sur la mise en œuvre des solutions et correctifs. Tu es curieux, rigoureux et pédagogue. Tu es à l’aise avec les nouvelles méthodes de collaboration : Agile, InnerSourcing, UX.
Freelance
CDI

Offre d'emploi
Business Analyst Monétique

VISIAN
Publiée le
Apache Kafka
Java
Mongodb

1 an
40k-45k €
400-620 €
Paris, France
Descriptif du poste Le prestataire devra cadrer et spécifier les travaux "data" permettant d'alimenter le socle Data Monétique. Le prestataire sera chargé en priorité sur les sujets des Flux entrant et sortant du Socle data monétique liées au programme eStreem. Les usages pourront être des sujets Acquisition ou Emission. Ce socle est déjà alimentée par certaines applications en streaming via des messages Kafka et en batch via des fichiers plats par CFT. En terme d'infrastructure, le périmètre applicatif est basé sur un socle IBM COS (Raw Layer) et MongoDB (Organized Layer). Le socle data va être la pierre angulaire et la source de nombreux uses cases aval. La mise à disposition des données se fera soit au travers d'API pour des Front-End soit via des demi-interfaces pour d'autres applications. L'activité se déroule en projet Agile.
Freelance
CDI

Offre d'emploi
Développeur(se) Full Stack Java/CAMUNDA Senior

Les Filles et les Garçons de la Tech
Publiée le
Apache Kafka
Camunda
Java

12 mois
10k-50k €
100-550 €
Île-de-France, France
Le/La développeur(se) Full Stack Java Senior est responsable de la conception, du développement et de la sécurisation des solutions applicatives, conformément aux spécifications fonctionnelles et techniques définies. À ce titre, il/elle intervient sur les missions suivantes : Analyse détaillée des besoins fonctionnels et techniques Conception technique des solutions applicatives Modélisation et implémentation des workflows avec Camunda Développement de services backend et d’API REST Participation aux revues de code et aux bonnes pratiques de développement Rédaction de la documentation technique et de sécurité Qualification technique et fonctionnelle des solutions développées Validation des spécifications fonctionnelles détaillées Coordination et pilotage de prestataires impliqués dans le développement
Freelance

Mission freelance
Expert Technique Cash Management (Swiftnet et ISO20022 OBLIGATOIRE)

Comet
Publiée le
Apache Kafka
Apache Spark

6 mois
600-750 €
Paris, France
Objectifs de la mission Intervenir en tant qu’expert technique sur des applications critiques de Cash Management dédiées au traitement de flux financiers à forte volumétrie. La mission couvre l’ingestion, la transformation et la diffusion de flux batch et temps réel , ainsi que l’intégration sécurisée avec l’écosystème bancaire international via SWIFTNet et les messages ISO 20022 , dans un environnement distribué basé sur Scala, Java, Python, Kafka, Spark et Hadoop . Rôle et responsabilités Concevoir, développer et maintenir des composants back-end robustes en Scala / Java / Python Intervenir sur des architectures orientées événements et streaming ( Kafka, Spark, ) Garantir la performance, la qualité du code et la stabilité des traitements de flux critiques Contribuer aux choix d’architecture, d’optimisation et de supervision ( Docker, Kubernetes, Jenkins, Sonar, Datadog ) Travailler en étroite collaboration avec les équipes métier Cash Management / Paiement dans un cadre agile
Freelance
CDI

Offre d'emploi
Ingénieur Data Event Management

VISIAN
Publiée le
Apache Kafka
Java
Python

1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Freelance

Mission freelance
Développeur Back-End (TypeScript / Node.js)

ESENCA
Publiée le
Apache Kafka
Mongodb
NestJS

1 an
Lille, Hauts-de-France
🎯 Objectif global Développer la V2 d’un produit de gestion des offres (Offer Repository) , composant central d’une plateforme de commerce digital, avec une approche résolument orientée qualité, performance et software craftsmanship . 🧩 Contexte et contraintes du projet Produit stratégique à très forte criticité métier Exigences élevées en performance, scalabilité et robustesse Culture forte de software craftsmanship TDD comme fondation BDD comme source d’inspiration (Behaviour Driven Development) 📦 Livrables attendus Gestion des offres customer-centric , pilotée par zone géographique Intégration de la disponibilité des offres Code de haute qualité, maintenable et évolutif Contribution active à une dynamique d’ amélioration continue 🛠️ Description de la mission Le poste porte sur le développement et l’évolution d’un Offer Repository , véritable colonne vertébrale d’un écosystème SI de commerce digital. Ce composant critique consolide l’ensemble des offres de produits et de services (retail et marketplace) afin d’alimenter de nombreux systèmes consommateurs : front web, parcours omnicanaux, encaissement, etc. La mission s’inscrit dans une transformation majeure du modèle d’offre : Passage d’une logique centrée sur les stocks magasins Vers une offre dynamique , construite à partir du besoin géographique du client 🚀 Enjeux techniques Performance critique : jusqu’à 20 milliards d’appels API par mois Volumétrie massive : exposition et manipulation de centaines de millions d’offres Scalabilité & haute disponibilité : architectures capables d’absorber de forts pics de charge Fiabilité du code : la robustesse n’est pas négociable 🧠 Méthodologie & culture technique Vous évoluerez dans un environnement mature, exigeant et orienté excellence technique : Architecture : application stricte des principes d’architecture hexagonale Qualité logicielle : pratiques avancées de TDD et BDD Agilité réelle : cycles courts, feedback continu, amélioration permanente Collaboration : échanges techniques riches et forte responsabilité collective 🧰 Compétences techniques requises Impératif – Niveau confirmé à expert TypeScript, Node.js NestJS (concepts avancés, patterns, modularité) TDD & BDD (maîtrise réelle, pas théorique) Kafka (incluant Schema Registry, AVSC) MongoDB Conception & Architecture Domain Driven Design (DDD) Architectures Hexagonale, Onion, Event-Driven Observabilité Monitoring et performance applicative (Datadog apprécié) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Impératif
224 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous