Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Lille
Votre recherche renvoie 42 résultats.
Mission freelance
Lead Engineer
Codezys
Publiée le
Apache Kafka
Mongodb
NestJS
12 mois
Lille, Hauts-de-France
En tant que Lead Engineer , vous occupez un rôle essentiel dans la conception et le développement de solutions critiques dans le domaine de la Finance, notamment en ce qui concerne l' Achat , la Facturation et le Paiement . Expertise & Architecture : Concevoir des architectures système complexes et prendre des décisions techniques structurantes pour le domaine. Leadership Technique : Diriger l'équipe de développement, définir les objectifs techniques et veiller à l'atteinte de l'excellence opérationnelle. Mentorat : Accompagner la montée en compétences des ingénieurs moins expérimentés à travers du coaching et du peer programming. Agilité : Collaborer étroitement avec le Product Owner dans un environnement Agile afin d'aligner la roadmap technique sur les besoins métiers. Contribution : Participer activement à la production logicielle (avec un temps consacré entre 40 % et 60 %) et à la gouvernance technique, notamment dans les initiatives Innersource et Open Source. Ce rôle requiert une expertise technique approfondie, un esprit de leadership, ainsi qu'une capacité à travailler en équipe pour garantir la réussite des projets critiques de la discipline financière.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
Consultant ORACLE GL / FA / TAX / CB / PO – H/F
HAYS France
Publiée le
Apache Kafka
API
Enterprise Service Bus (ESB)
1 an
380-520 €
Lille, Hauts-de-France
Dans le cadre du programme FPDP (Finance & Performance Digital Platform), notre client, groupe international du secteur retail recherche un Consultant Oracle ERPC confirmé pour intervenir sur les domaines GL / FA / TAX / CB / PO. Vous intégrerez la guilde dédiée du projet ERPC Oracle, en appui sur les processus R2R et Transverse. Vos missions Contribuer aux évolutions et à l’amélioration continue de la solution ERPC Oracle Réaliser le setup technique et implémenter de nouvelles sociétés Spécifier et mettre en place des interfaces avec des composants externes Développer et intégrer des API Participer ponctuellement au RUN (support niveau L3) Participer aux reprises de données lors des déploiements Produire les spécifications techniques et assurer la documentation Assurer le suivi opérationnel via JIRA / Kanban
Mission freelance
TechLead Data Engineer
MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark
6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
Offre d'emploi
Développeur fullstack Java Vue
ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Offre d'emploi
Testeur / QA Engineer Junior
Codezys
Publiée le
Apache Kafka
JIRA
QA
12 mois
40k-45k €
240-310 €
Lille, Hauts-de-France
Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un QA Engineer pour intégrer nos équipes. Objectif de la mission En tant que QA Engineer, vous serez au cœur de la validation technique du projet. Vous travaillerez en étroite collaboration avec l'équipe produit et les développeurs pour assurer la qualité des livrables et la fiabilité des flux de données. Vos responsabilités Concevoir des plans de tests et des scénarios de tests détaillés fonctionnels et techniques à l’aide de JIRA et Xray Préparer les jeux de données nécessaires pour simuler des flux réalistes. Exécuter des campagnes de tests des flux d'intégration (Kafka et Google Pub/Sub) Réaliser les tests métier et valider les processus entrepôt (Réception, stockage, préparation, expédition…) Qualifier précisément les anomalies, suivre leur résolution avec les équipes de développement et l’éditeur, et valider les correctifs. Être force de proposition sur les processus métier : vous ne vous contentez pas de vérifier si "ça marche", vous challengez la solution pour qu'elle soit robuste et utilisable sur le terrain. Participer aux cérémonies agiles de l’équipe
Offre d'emploi
Développeur fullstack (+front que back)
ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - HTML, CSS, Javascript, Java 11+, SpringBoot, Vue JS, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Mission freelance
Support Engineer
CAT-AMANIA
Publiée le
Apache Kafka
Java
Kubernetes
1 an
100-360 €
Lille, Hauts-de-France
Participer au traitement des tickets support de niveau 2 / Animer et accompagner le support de niveau 1 / Prioriser et suivre le support de niveau 3 avec les équipes de développeurs Assurer la conduite du changement en participant aux livraisons en production de nos releases Designer et exploiter nos solutions de monitoring/alerting (Datadog & Grafana) pour permettre d’anticiper les bugs avant qu’ils ne diminuent le niveau de service rendu à nos utilisateurs Garantir le niveau de service de l’application en animant la démarche SRE au sein des équipes Gérer les incidents de production Identifier les problèmes récurrents via la recherche de root cause, définir les plans d’actions avec les équipes produits et les applications partenaires Être force de proposition afin d'améliorer la qualité opérationnelle, les performances et la disponibilité des solutions Mettre en place ou contribuer au développement des outils de demain qui accompagnent la transformation du métier (automatisation, industrialisation, …) Documenter les process du Run afin de rendre autonomes les équipes produits et déploiement dans leurs réponses à nos utilisateurs
Mission freelance
Lead dev Nodejs/Vuejs
ESENCA
Publiée le
Apache Kafka
API REST
Mongodb
1 an
Lille, Hauts-de-France
🎯 Objectif de la mission Concevoir et développer des produits transverses à forte criticité dans le domaine Finance (achats, facturation, paiements), au sein d’un environnement technique exigeant et orienté plateformes. 🧩 Contexte & enjeux La mission s’inscrit dans un domaine transverse stratégique, avec de fortes contraintes métier liées aux concepts financiers. Les solutions développées doivent être robustes, scalables et alignées avec les besoins de plusieurs équipes et produits. 🚀 Missions principales En tant que Lead Engineer , vous jouez un rôle clé à la fois technique et structurant : Architecture & expertise : conception d’architectures complexes et prise de décisions techniques majeures pour le domaine Finance. Leadership technique : pilotage des choix techniques, définition des standards et garantie de la qualité des livrables. Contribution au développement : participation active à la production (40 à 60 % du temps en codage). Mentorat & accompagnement : montée en compétences des ingénieurs via le coaching, le pair programming et les revues de code. Collaboration Agile : travail étroit avec le Product Owner pour aligner la roadmap technique et les besoins métiers. Gouvernance technique : contribution aux pratiques de partage de code (Innersource / Open Source) et à l’amélioration continue. 🛠 Compétences techniques requises Back-end : NestJS (impératif) Front-end : Vue.js (impératif) Bases de données : MongoDB (impératif), PostgreSQL Architecture & intégration : API REST, flux de données événementiels (Kafka) Qualité & DevOps : bonnes pratiques de gestion du code, tests unitaires, intégration continue
Mission freelance
Développeur Back-End (TypeScript / Node.js)
ESENCA
Publiée le
Apache Kafka
Mongodb
NestJS
1 an
Lille, Hauts-de-France
🎯 Objectif global Développer la V2 d’un produit de gestion des offres (Offer Repository) , composant central d’une plateforme de commerce digital, avec une approche résolument orientée qualité, performance et software craftsmanship . 🧩 Contexte et contraintes du projet Produit stratégique à très forte criticité métier Exigences élevées en performance, scalabilité et robustesse Culture forte de software craftsmanship TDD comme fondation BDD comme source d’inspiration (Behaviour Driven Development) 📦 Livrables attendus Gestion des offres customer-centric , pilotée par zone géographique Intégration de la disponibilité des offres Code de haute qualité, maintenable et évolutif Contribution active à une dynamique d’ amélioration continue 🛠️ Description de la mission Le poste porte sur le développement et l’évolution d’un Offer Repository , véritable colonne vertébrale d’un écosystème SI de commerce digital. Ce composant critique consolide l’ensemble des offres de produits et de services (retail et marketplace) afin d’alimenter de nombreux systèmes consommateurs : front web, parcours omnicanaux, encaissement, etc. La mission s’inscrit dans une transformation majeure du modèle d’offre : Passage d’une logique centrée sur les stocks magasins Vers une offre dynamique , construite à partir du besoin géographique du client 🚀 Enjeux techniques Performance critique : jusqu’à 20 milliards d’appels API par mois Volumétrie massive : exposition et manipulation de centaines de millions d’offres Scalabilité & haute disponibilité : architectures capables d’absorber de forts pics de charge Fiabilité du code : la robustesse n’est pas négociable 🧠 Méthodologie & culture technique Vous évoluerez dans un environnement mature, exigeant et orienté excellence technique : Architecture : application stricte des principes d’architecture hexagonale Qualité logicielle : pratiques avancées de TDD et BDD Agilité réelle : cycles courts, feedback continu, amélioration permanente Collaboration : échanges techniques riches et forte responsabilité collective 🧰 Compétences techniques requises Impératif – Niveau confirmé à expert TypeScript, Node.js NestJS (concepts avancés, patterns, modularité) TDD & BDD (maîtrise réelle, pas théorique) Kafka (incluant Schema Registry, AVSC) MongoDB Conception & Architecture Domain Driven Design (DDD) Architectures Hexagonale, Onion, Event-Driven Observabilité Monitoring et performance applicative (Datadog apprécié) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Impératif
Offre d'emploi
Ingénieur Etudes et développement
CAT-AMANIA
Publiée le
Apache Kafka
API REST
Docker
Lille, Hauts-de-France
LE PROJET Dans le cadre du gain d'un projet stratégique pour CATAMANIA pour l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons plusieurs développeurs Confirmés et Séniors au sein de notre agence Lilloise. L'objectif est de mettre en place d’un Centre de Compétences en vue de créer une nouvelle brique applicative permettant d’«arrimer » des flux de paiement, des clients directs et prestataires externes au nouveau processeur. Cela implique : De reprendre des flux en place (conversion au format du processeur) et de la basculer vers la nouvelle brique applicative. D’optimiser les processus d'émission (Domaine émission). De gérer des données et des contestations (Domaines Acquisition et Contestation). Réalisation de la nouvelle brique permettant de traiter plusieurs typologies de flux en entrée et en sortie (API / flux JSON, API SOAP, fichiers plats, fichiers XML, flux temps réel via Kafka, messages asynchrones MQ) dans un écosystème réglementé et sécurisé (PCI SSF, ISO 20022, chiffrement, traçabilité). Cette brique embarque des services de traitement de flux (chiffrement, conversion, dédoublonnage, routage, supervision, etc.) dans un contexte de très fortes volumétries impliquant performance, scalabilité et résilience. TECHNOLOGIES DU PROJET : JAVA 21, SPRING BOOT 3, ARCHITECTURE MICROSERVICES, API REST, KAFKA, OPENSHIFT (KUBERNETES, DOCKER), XLD, XLR VOTRE MISSION… UNE FOIS INTÉGRÉ(E) DANS NOS ÉQUIPES ! Comprendre le besoin métier et proposer une conception technique Assurer la conception et le développement avancé en Java Spring microservices sur tous les patterns d’échange définis (API, Kafka, fichiers). Réaliser les développements en s’assurant de la qualité, sécurité et performance par un travail d’équipe et l’élaboration de tests Participer activement aux tests techniques et à l’intégration. Documenter techniquement les solutions développées. Identifier et anticiper les risques Travailler en étroite collaboration avec les équipes MOA, Test et Architecture
Offre d'emploi
Développeur fullstack Java VueJS
ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Offre d'emploi
Ingénieur Qualité Sénior H/F
DAVRICOURT
Publiée le
40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Qualité Senior pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Définir et piloter la stratégie de tests globale pour la plateforme cliente ; - Concevoir, exécuter et maintenir les tests manuels ainsi que les scénarios de non-régression ; - Accompagner l'équipe dans l'automatisation des tests API / Kafka et l'intégration dans la CI/CD ; - Animer les rituels qualité (Three Amigos, Sprint Review), suivre les métriques et piloter la gestion des bugs. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Développeur Full-Stack H/F
DAVRICOURT
Publiée le
Full stack
35k-40k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Développeur Full-Stack Node.js / Nest.js pour l'un de nos clients. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Développer et faire évoluer les APIs, BFF et services métier en Node.js / Nest.js ; - Structurer, optimiser et moderniser le monorepo (Nx / Turborepo) et contribuer à son industrialisation ; - Mettre en œuvre et maintenir les traitements event-driven via Kafka (producers, consumers, schémas) ; - Assurer la performance et la qualité logicielle : tests, revues de code, clean code, monitoring ; - Participer activement aux rituels agiles et collaborer étroitement avec les équipes PO, UX, data et développement ; - Contribuer à l'observabilité du produit (Datadog), à la scalabilité des services et à l'amélioration continue des pratiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Mission freelance
Responsable d’Applications Supply Chain
ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL
1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
42 résultats
Contrats
Lieu
1
1
Lille, Hauts-de-France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois