Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 300 résultats.
Mission freelance
Développeurs .NET C# (H/F) - 76
Mindquest
Publiée le
Apache Kafka
ASP.NET MVC
Kubernetes
3 mois
Rouen, Normandie
- Intégration dans une communauté d’environ 250 développeurs, au sein d’une équipe agile de 6 à 12 développeurs fullstack. - Intervention sur un portefeuille de projets conséquent (plus de 200 projets par an, de 20 à 3000 jours/homme environ). - Participation à des projets de création ou de mise à jour d’applications, sur les périmètres internet et intranet. - Intervention sur l’ensemble des produits et métiers de l’entreprise (par exemple : assurance, santé, marché professionnel, etc.). - Contribution à la refonte progressive du système d’information : - Maintenance et évolution d’applications existantes : ASP .NET MVC, C#, Webservices REST - Développement sur une nouvelle stack technique : React, C# .NET Core, Microservices, SQL Server, Kafka, Kubernetes, etc. - Participation à toutes les phases des projets, dans le cadre d’itérations de 2 semaines : - Conception - Développement - Intégration / Recette - Mise en production - Garantie et maintenance Expertises techniques attendues Compétences indispensables : - Excellente maîtrise du développement C# .NET - Bonne maîtrise des technologies Web : HTML, CSS, JavaScript - Expérience sur au moins un Framework JavaScript, idéalement React - Minimum 5 ans d’expérience en développement, idéalement dans des contextes SI complexes Compétences fortement appréciées : - Microservices - ASP .NET MVC - Kafka - Kubernetes - SQL / SQL Server
Mission freelance
Développeur Full Stack (Java/JS)
ESENCA
Publiée le
Apache Kafka
API REST
CI/CD
1 an
Lille, Hauts-de-France
⚠️ Recherche exclusivement localisée dans la région Hauts-de-France (Nord). 🎯 Objectif global Développer et maintenir des solutions digitales dédiées au référencement produit et à la gestion de l’offre , au sein d’un environnement digital structurant plusieurs produits et services. 📌 Contexte de la mission Vous intervenez au sein d’une équipe produit travaillant sur des solutions digitales liées à la gestion et à la diffusion de l’offre produit. L’équipe est composée d’un Product Manager, d’un Tech Lead, de responsables applicatifs, de Product Owners, d’un QA et de développeurs . Elle prend en charge plusieurs produits digitaux interconnectés. Dans ce cadre, vous serez amené à intervenir principalement sur deux applications : Un produit backend exposant des APIs REST et des flux Kafka , permettant de distribuer des données issues d’un système éditeur vers différents services de l’écosystème digital. Une application web Node.js / Vue.js , dédiée à la valorisation et à la gestion de marques et catalogues produits. Le contexte est international, multi-entités et en constante évolution , avec un environnement technique moderne et orienté cloud. 🧩 Missions principalesDéveloppement Concevoir, développer et maintenir des applications back-end et front-end . Développer des APIs synchrones (REST) et asynchrones (Kafka) . Contribuer à la qualité, la performance et la stabilité des applications. Maintenance & amélioration continue Assurer la maintenance corrective et évolutive des solutions existantes. Participer aux optimisations techniques et à l’amélioration des performances. Garantir la sécurité, la disponibilité et la scalabilité des services. Collaboration & pratiques agiles Travailler en collaboration avec les équipes produit et techniques. Participer aux rituels agiles et à la vie de l’équipe. Contribuer à la documentation technique et au partage de connaissances. 💻 Compétences techniques requisesImpératif – Niveau Expert Java et son écosystème TypeScript Node.js Impératif – Niveau Confirmé Nuxt / Vue.js 3 et son écosystème (routing, state management, SSR, Pinia) Environnement technique Backend : Node.js (Express / NestJS), APIs REST, Kafka Frontend : Vue.js 3 / Nuxt 3 Bundling : Webpack, Babel, Vite Bases de données : PostgreSQL, MongoDB, Redis Tests : Jest, Vitest, Cypress ou Playwright API : OpenAPI / Swagger, KafkaJS, AVRO CI/CD : GitHub Actions Outils collaboratifs : GitHub, Confluence, GitBook Serait un plus Docker et notions Kubernetes CI/CD as Code Approche Contract-first pour les APIs Architecture hexagonale TDD Utilisation d’outils d’assistance au développement (ex : Copilot) 🌍 Compétences linguistiques Français courant – impératif Anglais professionnel – impératif
Mission freelance
Lead Engineer
Codezys
Publiée le
Apache Kafka
Mongodb
NestJS
12 mois
Lille, Hauts-de-France
En tant que Lead Engineer , vous occupez un rôle essentiel dans la conception et le développement de solutions critiques dans le domaine de la Finance, notamment en ce qui concerne l' Achat , la Facturation et le Paiement . Expertise & Architecture : Concevoir des architectures système complexes et prendre des décisions techniques structurantes pour le domaine. Leadership Technique : Diriger l'équipe de développement, définir les objectifs techniques et veiller à l'atteinte de l'excellence opérationnelle. Mentorat : Accompagner la montée en compétences des ingénieurs moins expérimentés à travers du coaching et du peer programming. Agilité : Collaborer étroitement avec le Product Owner dans un environnement Agile afin d'aligner la roadmap technique sur les besoins métiers. Contribution : Participer activement à la production logicielle (avec un temps consacré entre 40 % et 60 %) et à la gouvernance technique, notamment dans les initiatives Innersource et Open Source. Ce rôle requiert une expertise technique approfondie, un esprit de leadership, ainsi qu'une capacité à travailler en équipe pour garantir la réussite des projets critiques de la discipline financière.
Offre d'emploi
Développeur Full Stack
Lùkla
Publiée le
Apache Kafka
CI/CD
CSS
2 ans
55k-63k €
500-550 €
Yvelines, France
Le profil recherché est un développeur fullstack. La mission se déroulera au sein d’une direction informatique, rattachée à une équipe d’ingénierie logicielle et de développements digitaux. Au sein d’une équipe agile d’environ 6 personnes, le profil interviendra sur les évolutions de plusieurs produits applicatifs transverses ainsi que sur la maintenance de plusieurs applications existantes. Principales tâches : Participer à la conception et à l’estimation des fonctionnalités à implémenter Développer les fonctionnalités et les tests associés dans le respect des normes, de l’ergonomie et des bonnes pratiques d’ingénierie logicielle Contribuer au maintien de la plateforme d’intégration continue Participer à la réduction de la dette technique et à l’amélioration continue
Mission freelance
Team Leader Data Engineering (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management
6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Offre d'emploi
Business Analyst confirmé
VISIAN
Publiée le
Apache Kafka
Exadata Cloud@Customer (ExaCC)
1 an
40k-45k €
260-500 €
Paris, France
Descriptif du poste Une organisation bancaire majeure a lancé en S2 2025 la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que l'organisation recherche un Business Analyst confirmé pour bien comprendre l'ensemble des besoins qui arrivent actuellement, participer à leur analyse, mais aussi aider à coordonner l'ensemble des travaux pour en assurer la bonne livraison, dans les temps. La mission consistera à intégrer l'équipe agile en place, clarifier les besoins exprimés par les autres équipes fonctionnelles et techniques notamment du programme, afin de clarifier la backlog de l'équipe et participer à sa planification avec le tech lead et ses coéquipiers.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino
WorldWide People
Publiée le
Apache Kafka
DBT
Python
12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Mission freelance
Développeur Back-End Java — Moteurs de Notation Risque
Hexagone Digitale
Publiée le
Apache Kafka
IFRS 9
Java
12 mois
Paris, France
Dans le cadre d’un renfort d’équipe, nous recherchons un Développeur Backend Java pour intervenir au sein de la DSI Risques d’un grand groupe bancaire. La mission concerne le développement et l’évolution de moteurs de notation (Credit Scoring / Risk Rating Engines). L’environnement est structuré, organisé en mode Agile, au sein d’une DSI de grande envergure reposant sur une architecture distribuée complexe.. Rôle et responsabilités · Développement backend Java · Implémentation des composants des moteurs de notation · Contribution aux développements critiques · Participation aux rituels Agile · Correction d’anomalies et évolutions · Respect des standards techniques groupe Livrables attendus · Développements backend Java · Participation aux livraisons applicatives · Documentation technique liée aux développements Compétences requises Must have · Java · Spring / Spring Boot · Expérience en environnement bancaire · Expérience en systèmes distribués · Méthodologie Agile Nice to have · Connaissance domaine Risques · Exposition FRTB / IFRS9 · Kafka / Spring Batch
Offre d'emploi
Developpeur Fullstack JAVA/ANGULAR/GCP h/f
NITROLABZ By SYNC-DIGITALS SAS
Publiée le
Apache Kafka
Cloud
Git
3 ans
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Offre d'emploi
Développeur Java Senior
ASTRELYA
Publiée le
Apache Kafka
Argo CD
AWS Cloud
La Garenne-Colombes, Île-de-France
Vous rejoindrez un programme stratégique de refonte de la plateforme B2C dans le secteur de l'énergie à l’échelle mondiale, dans un environnement Agile Scrum et collaboratif avec des équipes réparties dans plusieurs pays. Ce projet vise à construire des solutions innovantes et scalables sur AWS Cloud, en s’appuyant sur les meilleures pratiques DevOps et CI/CD. Responsabilités principales : Développer et concevoir des applications Java robustes et performantes, basées sur des architectures microservices et orientées cloud AWS. Participer activement au développement (rôle de doer) : codage, revue de code, tests, optimisation. Définir et promouvoir les bonnes pratiques de développement, qualité et sécurité du code. Encadrer et guider les développeurs juniors, en jouant un rôle de mentor technique. Collaborer avec les équipes internationales (produit, architecture, data) pour garantir la cohérence et la performance des solutions. Stack technique : Langages & Frameworks : Java, Spring Boot Cloud & Infra : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & Services : Microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & Sécurité : Datadog, Prisma Cloud Collaboration : Jira, Confluence
Offre d'emploi
Développeur Java Kafka/Python F/H
ACENSI Ile de France
Publiée le
Apache Kafka
Java
Python
Île-de-France, France
Dans le cadre d’un projet stratégique en finance de marché, nous recherchons un expert technico-fonctionnel pour intervenir sur une plateforme de pricing utilisée dans un environnement critique, réglementé et international. La mission porte sur le développement et l’évolution d’une librairie de pricing Java déployée sur une grille de calcul, ainsi que sur des applications Cloud associées, utilisées par des équipes métiers et IT à l’échelle européenne. Missions principales : Analyse et formalisation des besoins métier Rédaction des spécifications fonctionnelles et techniques Développement et maintenance applicative en Java 17 et Python Maintenance et évolution d’une librairie de pricing (Apache Ignite) Réalisation d’analyses quantitatives : courbes de taux, cashflows, sensibilités, pricing d’instruments structurés Définition et exécution des tests (unitaires, fonctionnels, intégration, performance) Support aux équipes IT et métiers Analyse et accompagnement des migrations Cloud Support à la production et gestion des incidents Participation aux déploiements et à la gestion des environnements
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Mission freelance
Data Engineer Experimenté/Senior
Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi
24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
Mission freelance
Consultant ORACLE GL / FA / TAX / CB / PO – H/F
HAYS France
Publiée le
Apache Kafka
API
Enterprise Service Bus (ESB)
1 an
380-520 €
Lille, Hauts-de-France
Dans le cadre du programme FPDP (Finance & Performance Digital Platform), notre client, groupe international du secteur retail recherche un Consultant Oracle ERPC confirmé pour intervenir sur les domaines GL / FA / TAX / CB / PO. Vous intégrerez la guilde dédiée du projet ERPC Oracle, en appui sur les processus R2R et Transverse. Vos missions Contribuer aux évolutions et à l’amélioration continue de la solution ERPC Oracle Réaliser le setup technique et implémenter de nouvelles sociétés Spécifier et mettre en place des interfaces avec des composants externes Développer et intégrer des API Participer ponctuellement au RUN (support niveau L3) Participer aux reprises de données lors des déploiements Produire les spécifications techniques et assurer la documentation Assurer le suivi opérationnel via JIRA / Kanban
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
300 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois