L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 474 résultats.
Mission freelance
Administrateur Kafka
Publiée le
Apache Kafka
Automatisation
IAC
3 ans
Toulouse, Occitanie
Télétravail partiel
L’administrateur Kafka est responsable de l’installation, de la configuration et de l’exploitation des clusters Kafka. Il assure la supervision, la performance et la disponibilité de la plateforme, tout en garantissant sa sécurité via TLS, ACL et bonnes pratiques d’accès. Il gère le cycle de vie des topics, des partitions et des données, optimise les flux et automatise les opérations via des outils IaC. Il accompagne les équipes applicatives, résout les incidents liés aux producers/consumers et contribue à l’amélioration continue de l’écosystème Kafka (Connect, Schema Registry, monitoring).
Mission freelance
Developpeur JAVA/DEVOPS
Publiée le
Apache Kafka
Java
1 an
100-400 €
Île-de-France, France
Télétravail partiel
Objet : Le client (secteur bancaire) souhaite mener les travaux relatifs à des prestations développement Full Stack, de niveau EXPERT + anglais indispensable. Description de la prestation attendues : * Contribuer à la conception et au développement du composant de règlement de la plateforme de gestion de l’euro numérique de Banque Centrale * Définir et implémenter les tests unitaires des modules sous sa responsabilité * Respecter les standards de développement définis par le projet, et prendre en compte les indicateurs fournis par les outils d’analyse de code (Sonar) * Assurer que les composants respectent les exigences non fonctionnelles (performance, montée en charge, résilience, …) * Proposer et réaliser des prototypes * Collaborer avec les autres membres de l’équipe projet (environnement international) * Réaliser des revues de code * Rédiger de la documentation technique (en anglais)
Mission freelance
Développeur full stack JS (H/F)
Publiée le
Apache Kafka
Mongodb
Node.js
2 ans
100-400 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack JS (H/F) à Lille, France. Les missions attendues par le Développeur full stack JS (H/F) : ++: Nodejs / Nest.js ++: MongoDB ++: Nx monorepo ou autre monorepo "moderne" comme turborepo ++: Kafka +: CI/CD ou GitHub Actions +: K8S +: Datadog +: Software Craftsmanship Vous serez responsable (en pair ou mob avec le reste de l'équipe) de: - évolutions (Node JS / Nest.js / MongoDB / Kafka) sur la partie API / BFF / Front - mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la scalabilité du produit
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka)
Publiée le
Apache Kafka
API REST
Java
250 jours
500-580 €
Châtillon, Île-de-France
Télétravail partiel
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka) Contrainte forte : Environnement e-commerce Objectif global Développer et faire évoluer les API du périmètre e-commerce dans un contexte de modernisation de la plateforme. Livrables Développements back-end Conception technique Tests unitaires Compétences techniques attendues Java 11+ : niveau expert, impératif Spring Boot 2+ : niveau expert, impératif API RESTful : niveau expert, impératif Messaging / Kafka : niveau confirmé, important Français courant : impératif Description de mission Le consultant participera à l’ensemble du cycle de développement des API e-commerce. Ses principales activités seront : Développer de nouvelles API. Contribuer à l’amélioration des performances globales de la plateforme. Participer à la modernisation de l’architecture (adoption de nouvelles technologies, urbanisation du SI). Garantir la qualité du code et prendre part aux revues de code. Participer au RUN applicatif : monitoring, reporting, traitements récurrents. Rôle et responsabilités (référentiel Expert) Analyse Contribue à l’analyse fonctionnelle détaillée. Participe aux ateliers de définition des besoins et des spécifications. Étudie la faisabilité technique et réalise l’analyse détaillée. Contribue à l’estimation des charges. Conception et développement Participe au design logiciel et aux choix de frameworks. Réalise du prototypage si nécessaire. Analyse et développe les composants avec les langages appropriés. Contribue à la structuration des bases de données. Participe aux revues croisées des développements. Prépare le dossier d’exploitation pour la mise en production. Assemble les composants dans un package cohérent et gère la configuration. Documente les applications pour les futures évolutions et pour la MEP. Industrialise et harmonise les composants. Utilise et met à jour les composants logiciels réutilisables. Tests unitaires et intégration Rédige et exécute les tests unitaires. Identifie et corrige les dysfonctionnements. Vérifie la conformité du développement aux besoins exprimés. Contribue aux tests d’intégration et à leur préparation. Analyse les résultats et rédige le rapport de tests. Maintenance Réalise les développements liés à la maintenance corrective et évolutive. Participe à l’analyse et à la résolution des incidents de production.
Mission freelance
Développeur Java/Kafka/Kubernetes
Publiée le
Apache Kafka
Java
Kubernetes
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
Offre d'emploi
DEVELOPPEUR(SE) BACK
Publiée le
Apache Kafka
Java
Springboot
1 an
Île-de-France, France
Pour renforcer une équipe sur un projet E-commerce à forte exigence technique. Missions principales -Développer de nouvelles API -Contribuer à l'amélioration des performances globales de la plateforme -Participer à la modernisation de la plateforme (adoption de nouvelles technologies, urbanisation du SI) -Garantir la qualité des livrables et participer aux revues de code -Participer au Run app Java 11+ - Expert - Impératif Spring Boot 2+ - Expert - Impératif API Restful - Expert - Impératif Messaging (Kafka) - Confirmé - Important
Offre d'emploi
Développeur Full Stack Java Vue JS
Publiée le
Apache Kafka
Java
Vue.js
Lille, Hauts-de-France
Télétravail partiel
Objectif global : Développer DEV pour implémenter produit digital Contrainte forte du projet - Anglais Le livrable est - Compétences techniques Java/Spring - Confirmé - Important Vue - Confirmé - Important Kafka - Confirmé - Important Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Nous recherchons un développeur fullstack Java/Vue (H/F). Il/Elle interviendra principalement sur une nouvelle brique applicative à destination de plusieurs pays et participera ponctuellement sur d'autres applications gérées dans l'équipe. Le nouveau produit digital est dédié à fournir une nouvelle expérience de validation des changements de prix de vente auprès de nos équipes de pricing. Vos missions sont les suivantes : Conception et développement des différentes briques logicielles Mise en place des tests unitaires et des tests d'intégration Intervenir dans la mise en place de l'outillage logiciel pour l'automatisation des tests et l'intégration continue Assurer le suivi des tâches JIRA Participer à la revue de code Rédaction et actualisation des documentations techniques. Etre force de proposition, et challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Participer aux différents rituels agiles projet Environnement technique: - Java/spring - Vue - MongoDB - Kafka - GCP
Offre d'emploi
Développeur Fullstack Node.js / MongoDB (H/F)
Publiée le
Apache Kafka
Java
Mongodb
6 mois
Lille, Hauts-de-France
Télétravail partiel
Vous rejoindrez une équipe multidisciplinaire (développeurs, data scientists, data engineers, data analysts, product owners, UX designers) dédiée au développement et à la mise à disposition d’outils de publication et de recherche de produits pour l’ensemble des business units du groupe. L’équipe travaille en mode agile , valorise l’échange de best practices et l’apprentissage continu, avec pour objectif de produire des solutions propres, stables et scalables , apportant une réelle plus-value aux clients. Objectifs et missions Vous contribuerez à faire évoluer le produit en participant aux activités suivantes : Développement et maintenance du produit sur les couches API / BFF / Front , principalement avec Node.js / Nest.js / MongoDB / Kafka . Mise en place et/ou renforcement des best practices autour du testing, monitoring et alerting pour garantir la qualité, la stabilité et la scalabilité du produit. Collaboration en pair programming ou mob programming avec le reste de l’équipe. Participation aux évolutions techniques sur le monorepo ( Nx ou équivalent moderne comme Turborepo ). Support aux activités DevOps et CI/CD ( GitHub Actions, Kubernetes, Datadog ) pour améliorer l’efficacité et la fiabilité du produit.
Mission freelance
Tech Lead Kafka/Angular/fa
Publiée le
Angular
Apache Kafka
12 mois
Paris, France
Télétravail partiel
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Mission freelance
Développeur Kafka
Publiée le
Apache Kafka
API REST
1 an
400-680 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Visian recherche pour un de nos clients bancaire un profil Développeur Kafka Sénior afin de renforcer ses équipes IT. Les missions confiées porteront à la fois sur l’ensemble des phases projets ainsi que sur le suivi et la résolution d’incidents, du périmètre applicatif en responsabilité. Participation aux cadrages des projets : étude d’impacts, conception de solutions, chiffrage Rédaction des spécifications fonctionnelles & détaillées, en anglais Mise en place de tests de non-régression automatisés Supervision des travaux de développements externalisés, en anglais Réalisation et exécution de phases de tests IT Rédaction des documentations liées aux évolutions réalisées dans un outil documentaire partagé Préparation et suivi des mises en production des applications du périmètre Suivi de la phase VSR Forte communication avec toutes les parties prenantes métier & IT des projets (conformité, marketing, architectes, …) Suivi, analyse et résolution d’incidents
Offre d'emploi
DevOps Senior Kafka
Publiée le
Apache Kafka
CI/CD
Google Cloud Platform (GCP)
1 an
Maghreb Al Arabi, Rabat-Salé-Kénitra, Maroc
Télétravail 100%
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de participer à la mise en place et à l'amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kafka, Kubernetes et GCP. Il/elle sera en charge de l'automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d'infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. - Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. - Posséder une expertise approfondie de Kafka, y compris sa configuration, sa gestion et son optimisation. - Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. - Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. - Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. - Compréhension des concepts de base des bases de données relationnelles. - Maîtrise des scripts de scripting (bash, Python, etc.). - Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. - Capacité à travailler de manière autonome et à gérer son temps efficacement. - Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. -Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. -Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
Mission freelance
Consultant informatica IDMC
Publiée le
Apache Kafka
Informatica
SaaS
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Bonjour à tous, Dans le cadre d’un besoin urgent pour l’un de nos clients grands comptes du secteur public/financier, nous renforçons notre équipe et recherchons un consultant expérimenté sur Informatica IDMC (SaaS). 👉 Démarrage idéal : fin du mois – au plus tard janvier 👉 Mission jusqu’en avril 2026 🎯 Votre rôle Vous interviendrez au sein de l’équipe CDC sur une plateforme IDMC déjà en production, composée de plusieurs référentiels (CAI, CDI, MDM, R360, B360). Vos missions : Assurer la TMA : gestion des anomalies et évolutions. Accompagner l’équipe en conseil sur les capacités et limites de la plateforme IDMC. Gérer et maintenir l’ensemble des composants IDMC : • CAI, CDI, MDM, R360, B360 Intégrer, traiter et diffuser les données via Kafka. 🧩 Compétences clés recherchées 🔧 Techniques Minimum 2 ans d’expérience sur IDMC Maîtrise des modules : CAI, CDI, MDM, R360 Expérience solide sur Kafka (intégration & diffusion) 🤝 Soft skills Autonomie dans les analyses & corrections Rigueur, réactivité, sens du service Bonne communication pour challenger et conseiller les équipes internes 👥 Environnement de mission 1 expert interne (socle technique) 1 référent interne pilotage projet 1 développeur externe Plateforme SaaS Informatica IDMC
Mission freelance
[FBO] Ingénieur Systèmes & Middleware – Expert Kafka - Toulouse - 1134
Publiée le
5 mois
450-500 €
Toulouse, Occitanie
Télétravail partiel
Description: • Le secteur d'activité : Bancaire Must have : Kafka, Redhat, Ansible • Nice to have : • Top 5 skills : • Type of project: MCO & Build • Urgency : Normal • Les astreints (HNO, etc…) : Oui • La possibilité de renouvellement : Oui Description et localisation La filière PLATEFORMES & MIDDLEWARE regroupe l’ensemble des activités container, middleware, de base de données, des outils de surveillance et monitoring, le tout sur les technologies d’informatique distribuée. Equipe Toulousaine de 25 personnes. Au sein de la Filière Plateforme Middleware et Monitoring (FPMM), se trouve l'équipe MoniTorinG (MTGT). L'équipe MTGT est composée de 3 produits (Zabbix, Splunk et Dynatrace) et s'intègre de par son expertise aux activités liées au sein des chantiers. Les chantiers ont pour but de rationnaliser et optimiser l'utilisation des applications et outils actuellement en place au sein de notre Société. Cette demande est plus centrée sur le Produit IZILog (Infra de + de 1500 serveurs) ==? collecte de logs de la globalité du SI du Groupe ainsi que la création de dashboard Splunk pour nos clients. Cette infrastructure s'appuie sur différents composants (NxLog, Fluentd, Nifi, Kafka, Zookeeper, OpenTelemetry, Splunk) permettant de collecter les logs. Connaissances - énior sur la technologie Kafka avec à minima 1 expertise significative dans le domaine du Monitoring. Prise en compte de l'Infra actuelle, challenge de son fonctionnement dans la chaine de liaison en prenant en compte les spécifités d'architectures du Groupe. Accompagner la montée en expertise de l'équipe sur Kafka. Travailler de par votre expertise et vos connaissances en monitoring et infrastructure au bon fonctionnement de l'ensemble de l'Infra. •Maintenir et faire évoluer la plateforme Kafka et les composants de la chaine de liaison du monitoring •Exploitation de l'infrastructure (socle IziLog) •Force de proposition technique pour rendre plus pérenne l'exploitabilité des socles •Accompagner la montée en expertise de l'équipe sur Kafka •Participer au collectif de l'équipe Monitoring •Refonte et maintien de la documentation • Contribuer aux travaux de rationalisation et d'optimisation sous responsabilité chantier.
Mission freelance
Lead Dev Python - FastAPI
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1474 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois