Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 308 résultats.
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Offre d'emploi
Software Integration Engineer (IBMi / Kafka) - H/F
AMD Blue
Publiée le
Apache Kafka
API
IBM i
3 ans
40k-45k €
380-400 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter nos expertises de pointe. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Digital . Contexte de la mission : Notre client, acteur majeur du Retail à l'échelle internationale, engage une transformation profonde de son périmètre digital pour servir plus de 10 000 utilisateurs répartis dans 25 pays. L'objectif est de déployer des solutions digitales innovantes pour rendre les flux logistiques plus flexibles, automatisés et connectés. Descriptif de la mission : En tant que Software Integration Engineer (SIE) , votre mission principale s'articule autour de deux axes majeurs : Modernisation des flux : Faire évoluer les technologies d'échanges actuelles pour standardiser les flux de données du WMS interne vers des solutions plus récentes ( API & Kafka ). Valorisation de la donnée : Accompagner les équipes Produit et Data afin de centraliser les informations et co-construire des dashboards d’activité en temps réel. Pour mener à bien cette mission, vos responsabilités seront les suivantes : Conception et intégration : Co-valider les designs fonctionnels, rédiger les spécifications techniques détaillées et accompagner le développement des solutions en lien avec les équipes expertes. Qualité et déploiement : Réaliser les tests, assurer la mise en production et garantir la stabilisation ainsi que la performance des solutions. Référent technique : Assurer le support technique auprès des utilisateurs et veiller à la robustesse des systèmes déployés.
Mission freelance
Développeur Java Angular (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Angular
Apache Kafka
Java
12 mois
400-550 €
Paris, France
Description : Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps et outils d’industrialisation.
Offre d'emploi
Développeur Java Springboot Kafka H/F
ITEA
Publiée le
Java
Spring
Strasbourg, Grand Est
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Développeur Java H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg Secteur de l'informatique Les conditions : Fourchette salariale : selon le profil et les expériences Les missions : Participer à l'élaboration et la réalisation de sujets techniques transverses Assurer l'évolutivité, la performance et la maintenabilité de la plateforme Participer aux choix techniques de l'équipe en matière de développement Contribuer à l'amélioration de l'intégration continue et aux outils de qualité de code du client Implémenter des solutions techniques Participer à la validation des développements livrés (réalisation de tests unitaires, revue de code) Analyser et corriger des anomalies
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Administrateur KAFKA
OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e administrateur.trice KAFKA. Vos missions seront : Migration d’une plateforme basée sur Kafka / Kafka Connect vers le Cloud IBM . Pilotage de l’activité auprès des providers de services Kafka et Kafka Connect sous Cloud. Mise en place de la stratégie de migration des événements (On-Premise vers Cloud IBM). Réalisation de POC, troubleshooting et suivi de l’avancement de la migration. Migration des configurations Kafka et Kafka Connect vers le Cloud IBM. Garantie de la résilience, de la sécurité et de la performance de la plateforme cible. Accompagnement des producteurs et consommateurs lors des mises en production. Support à la migration, gestion des incidents et stabilisation post-migration. Mise en place du monitoring et de l’alerting de la plateforme (ELK, Dynatrace).
Mission freelance
Tech Lead - Développeur Fullstack Sénior
Tenth Revolution Group
Publiée le
Apache Kafka
FastAPI
Python
12 mois
500-700 €
Nantes, Pays de la Loire
Contexte client Éditeur SaaS B2B à forte croissance intervenant dans la gestion de paiements et le rapprochement bancaire automatisé. Produit utilisé par plusieurs centaines de PME françaises. Contexte exigeant en termes de disponibilité, sécurité et performance. CTO technique impliqué dans les décisions d'architecture. Environnement technique React TypeScript Python FastAPI PostgreSQL Kafka AWS Kubernetes Terraform Profil recherché 7 ans+ d'expérience, dont au moins 2 ans en contexte SaaS B2B ou fintech. Maîtrise confirmée Python et/ou Java avec React en frontend. Expérience sur des architectures cloud (AWS ou GCP) et conteneurisées. Capacité à prendre des décisions techniques structurantes et à accompagner une équipe de 5 à 10 développeurs. Missions Piloter l'architecture technique de la plateforme : choix de stack, scalabilité, patterns de conception Développer les modules critiques : moteur de rapprochement, connecteurs bancaires, dashboards financiers temps réel Définir et faire appliquer les standards qualité (tests, CI/CD, documentation, sécurité) Collaborer étroitement avec le CTO et les Product Managers sur la roadmap technique Contribuer au recrutement et à l'onboarding des nouveaux développeurs
Mission freelance
Product Owner SAFe (H/F)
Freelance.com
Publiée le
Apache Kafka
API
Copilot
3 ans
400-580 €
Maisons-Alfort, Île-de-France
Nous recherchons un Product Owner (PO) expérimenté pour rejoindre une équipe agile travaillant sur des applications de financement à l’international. La mission s’inscrit dans un contexte SAFe et comporte des responsabilités à la fois fonctionnelles et techniques. Durée de la mission : 3 ans Démarrage : Avril Localisation : Maison Alfort – 2 jours en présentiel (mardi et vendredi) et 3 jours en télétravail (lundi, mercredi, jeudi) Expérience requise : +7 ans Missions principales : Concevoir, rédiger et maintenir les User Stories (US) et Tests d’acceptation. Suivre la réalisation avec les développeurs et effectuer les tests au fur et à mesure. Accompagner les utilisateurs finaux (conseil, formation, recensement des améliorations fonctionnelles, 1er niveau d’incidents). Assurer le maintien en condition opérationnelle des applications, avec suivi des incidents et respect des SLA. Participer et contribuer aux jalons SAFe : PI Planning, Iteration Planning, Review, PO Sync. Coordonner avec les équipes transverses pour les besoins fonctionnels et techniques.
Offre d'emploi
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT
R&S TELECOM
Publiée le
Apache Kafka
AWS Cloud
High Level Design (HLD)
1 an
Malakoff, Île-de-France
Le client recherche un Architecte Technique Intégration confirmé capable de concevoir et structurer les architectures d’intégration applicative. Le consultant interviendra sur les projets nécessitant la mise en place de flux applicatifs entre différents systèmes métiers et industriels. Ses missions principales seront : -concevoir les architectures techniques des flux applicatifs -garantir la cohérence et l’urbanisation des échanges inter-systèmes -produire les livrables d’architecture nécessaires aux projets -accompagner les équipes techniques lors de la mise en œuvre des solutions -assurer la conformité des architectures aux standards techniques et de sécurité du groupe Le consultant participera également aux instances de validation d’architecture et contribuera à l’évolution des standards techniques de l’organisation. Prestations attendues Architecture & Design: Recueil et analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des architectures techniques Urbanisation des flux applicatifs Définition de patterns d’intégration Participation aux comités d’architecture Conseil & Expertise: Support aux équipes projets et équipes de delivery Accompagnement des équipes techniques lors du déploiement des solutions Contribution aux normes et standards IT du groupe Support aux équipes sécurité et architecture Vérification de la conformité des implémentations aux standards d’architecture Gouvernance & Delivery: Participation aux comités techniques et d’architecture Support aux phases de validation des architectures Accompagnement à la mise en production des solutions Suivi et reporting des activités Livrables attendus : HLD Flux (High Level Design) LLD / Design technique détaillé Patterns d’architecture et modélisation Documentation technique d’intégration Recueil des besoins métiers Rapports d’activité hebdomadaires Support aux comités de validation d’architecture
Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT
Groupe Ayli
Publiée le
Apache Kafka
API
ArchiMate
12 mois
400-600 €
Malakoff, Île-de-France
🎯 Contexte Dans le cadre d’un vaste programme de transformation digitale, la DSI d’un grand groupe industriel international renforce sa gouvernance des flux applicatifs entre les systèmes Enterprise et les systèmes Industriels. Ces environnements – bien que segmentés pour des raisons de sécurité – sont fortement interconnectés. Le groupe souhaite donc disposer d’architectures d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT définis à l’échelle internationale. Le consultant rejoindra l’équipe Solution Design & Architecture as a Service , au sein du département Enterprise Architecture , afin d’intervenir sur la conception d’architectures d’intégration et l’accompagnement des projets. 🔧 Environnement technique AWS (services natifs, data transfer) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Environnements industriels sécurisés 🎯 Objectif de la mission L’objectif est de prendre en charge la conception et la structuration des architectures d’intégration applicative sur les projets nécessitant l’échange de données entre SI Enterprise et SI Industriels. 💼 Missions principales Concevoir les architectures techniques de flux applicatifs Garantir la cohérence et l’ urbanisation des échanges inter-systèmes Produire les livrables d’architecture (HLD / LLD) Accompagner les équipes techniques lors de la mise en œuvre Assurer la conformité avec les standards IT & sécurité du groupe Participer aux comités et validations d’architecture Contribuer à l’évolution des standards techniques globaux 📌 Prestations attendues 🧩 Architecture & Design Analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des composants et flux techniques Urbanisation des flux Définition de patterns d’intégration Participation aux comités d’architecture 🧠 Conseil & Expertise Support aux équipes projets et delivery Accompagnement au déploiement des solutions Contribution aux normes et standards IT Support aux équipes sécurité / architecture Contrôle de la conformité technique 📊 Gouvernance & Delivery Participation aux comités techniques Support aux phases de validation Accompagnement à la mise en production Suivi des activités et reporting 📄 Livrables attendus HLD (High Level Design) LLD (Low Level Design) / Design technique détaillé Patterns & modèles d’architecture Documentation technique d’intégration Recueil des besoins métiers Rapports hebdomadaires Contribution aux comités de validation
Offre d'emploi
DataOPs Kafka
JEMS
Publiée le
Apache Kafka
Kubernetes
3 ans
54k-70k €
470-630 €
Paris, France
Au sein du pôle technologique en charge des plateformes as a service , vous rejoignez la Squad Streaming qui est responsable du build et du run d’une plateforme Kafka (Confluent) de grande envergure, utilisée par de nombreuses entités du groupe. La plateforme compte plus de 30 clusters Kafka et constitue un socle critique pour les flux de données temps réel. Build & Architecture Déployer de nouveaux clusters Kafka (Confluent) Participer à la définition des architectures futures de la plateforme Concevoir et tester des prototypes liés aux nouveaux cas d’usage Industrialisation & Automatisation Automatiser les déploiements et opérations via Ansible Standardiser et fiabiliser les configurations Améliorer en continu les processus d’installation, d’upgrade et de scaling Run & Exploitation Assurer la mise en production et le maintien en condition opérationnelle des clusters Mettre à l’échelle les clusters existants (scaling horizontal et vertical) Participer aux astreintes techniques Diagnostiquer et résoudre les incidents complexes liés à la plateforme Support & Expertise Accompagner les équipes utilisatrices dans l’usage de la plateforme Kafka Fournir un support technique avancé Documenter les offres proposées par la plateforme Animer des formations, démonstrations et WebTech Rôle au sein de la Squad Prendre en charge des éléments du backlog Participer aux rituels agiles (daily, rétrospectives, démos, PI Planning) Co-construire la roadmap avec le Product Owner et le Squad Lead Endosser le rôle de lead technique sur un produit de la plateforme Compétences techniques requises Expertise solide Kafka (idéalement Confluent) Expérience d’exploitation de plateformes en production critique Automatisation avec Ansible Systèmes Linux Connaissance des architectures distribuées et résilientes Compétences appréciées Kubernetes Observabilité / monitoring Réseaux & sécurité Scripting (Python, Bash)
Mission freelance
Un DevOps Sénior Kafka Kubernetes sur la région parisienne
Almatek
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes
3 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un DevOps Sénior Kafka Kubernetes Data Platform Sur la région parisienne. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. Maîtriser en profondeur Apache Kafka, de sa confi guration avancée (partitionnement, réplication, compaction) à son exploitation en production, en passant par le tuning des performances, la gestion fi ne des topics et des offsets, la mise en oeuvre de la sécurité (TLS, SASL, ACL) et l’intégration avec des outils de supervision comme Prometheus et Grafana Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. Compréhension des concepts de base des bases de données relationnelles. Maîtrise des scripts de scripting (bash, Python, etc.). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité à travailler de manière autonome et à gérer son temps effi cacement. Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. Esprit d'équipe : Capacité à collaborer effi cacement avec les membres de l'équipe pour atteindre des objectifs communs. Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…). Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) RAM : minimum 16 Go, idéalement 32 Go ou plus Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus
Offre d'emploi
Développeur Backend Java – Secteur Banque
Ipanema Technology
Publiée le
Apache Kafka
Java
Springboot
1 an
40k-45k €
400-550 €
La Défense, Île-de-France
Rejoignez la Direction du Système d'Information d'un acteur majeur de la banque en ligne en pleine croissance. Intégré(e) à l'équipe technique en charge des applications de PFM (Personal Financial Management) , vous participerez au développement de services innovants qui redéfinissent l'expérience bancaire de millions d'utilisateurs. Dans un environnement où l'agilité et l'innovation sont les maîtres-mots, vos missions s'articuleront autour de trois axes majeurs : Développement & Innovation : Concevoir, développer et intégrer de nouvelles fonctionnalités au sein d'un écosystème complexe. Vous serez au cœur de la mise en place des nouveaux services de la banque de demain. Évolutivité & Architecture : En collaboration directe avec les équipes de développement, vous proposerez des choix d'architecture stratégiques permettant au SI de supporter une forte montée en charge tout en garantissant la résilience et la performance des applications. Excellence Opérationnelle : Garantir la non-dégradation des performances et le respect des standards de développement. Vous apporterez également votre expertise sur l'analyse et la résolution durable des incidents de production afin d'assurer une qualité de service irréprochable.
Mission freelance
Redéveloppement Modèle Industriel Stratégique - Dunkerque
Signe +
Publiée le
Apache Kafka
Azure DevOps
Fortran
12 mois
360 €
Dunkerque, Hauts-de-France
Contexte de la mission Nous sommes à la recherche d'une expertise en développement Python pour intervenir sur le redéveloppement d’un modèle industriel stratégique. Ce projet s'inscrit dans un contexte de traitement de l’obsolescence, où il est crucial de réécrire un modèle existant en Python. L'objectif est de maintenir les performances et le périmètre fonctionnel actuels tout en produisant un code documenté et conforme aux standards techniques internes. L'environnement de travail mêle informatique, big data et informatique industrielle, nécessitant une forte compétence en Python, Azure DevOps, Azure Pipelines, Kafka et RabbitMQ. Une compréhension des mathématiques appliquées, des environnements industriels et des anciens socles techniques comme Fortran sera un atout précieux.
Mission freelance
Développeur Fullstack Confirmé
Tenth Revolution Group
Publiée le
Apache Kafka
Docker
Java
12 mois
400-520 €
Nantes, Pays de la Loire
Contexte client Scale-up fintech bretonne spécialisée dans l'open banking et les connecteurs DSP2, intervenant auprès de banques régionales et d'assureurs mutuels. Produit en forte croissance, roadmap ambitieuse, équipe technique de 15 à 40 devs organisée en feature teams. Environnement technique React TypeScript Java 17+ Spring Boot Kafka PostgreSQL Docker GitLab CI/CD Profil recherché 3 à 5 ans d'expérience sur une stack Fullstack React / Java ou équivalente. Maîtrise des patterns d'architecture (microservices, REST, event-driven). À l'aise en environnement Agile Scrum. Sensibilité aux problématiques d'intégration bancaire est un plus. Missions Développer des fonctionnalités bout-en-bout sur la plateforme (frontend React + backend Java Spring Boot) Concevoir et maintenir des APIs REST consommées par des clients banques et assurances Piloter des intégrations tierces : connecteurs open banking, DSP2, partenaires fintech Réaliser des revues de code et accompagner les profils juniors de l'équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
308 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois