Find your next tech and IT Job or contract Apache Kafka
Your search returns 111 results.
Job Vacancy
BA energie
Published on
Apache Kafka
Oracle
3 years
40k-45k €
400-570 €
Ile-de-France, France
Hybrid
TÂCHES PRINCIPALES : • Support et expertise fonctionnelle et technique autour des applications Analyse et définit les périmètres fonctionnels • Modélise les processus métier (cartographie, flux, etc.) • Rédige les spécifications fonctionnelles et le cahier des charges • Communique avec son équipe Performance énergétique, travaille avec la Devteam agile autour de notre TMA GENESIS et avec les autres équipes de notre Direction Digitale et IT sur les projets transverses. • Traiter les rejets sur les différents flux • Appui au pilotage des projet (Planification, coordination, reporting, suivi des risques et blocages) Participation, voire Animation de réunions avec les parties prenantes et/ou avec les utilisateurs • Transcription du besoin en spécifications fonctionnelles • Rédaction de cahiers de recette et suivi du déroulement de la recette • Suivi des opérations de reprise de données et outils associés Contexte Au sein du domaine fonctionnel Energie, au pôle Opération Maintenance Efficacité Energetique de la GBU LEI, il s’agit d’une mission d’analyse technico-fonctionnel et de maintenance en conditions opérationnelles d’applications de gestion de la Performance Energétique. Le consultant doit travailler au sein de l’équipe Energie pour assurer la maintenance des applications au quotidien et accompagner les métiers pour améliorer les outils et processus (Evolutions / corrections / projets spécifiques). La prestation nécessite principalement : • La montée en compétence sur plusieurs applications Energie complexes. Le but étant la maitrise fonctionnelle et technique rapide de ces applications. • La coordination des différents ateliers techniques et fonctionnels en collaboration avec le PO, le métier, les équipes transverses, les éditeurs et la TMA pendant les phases d’étude, architecture, spécification, recette et déploiement des évolutions ou projets. • La rédaction des documents (spécifications, cahiers de recette, modes opératoires et comptes rendus) Modalité de la prestation
Contractor job
Project Manager - Encaissement
Published on
Apache Kafka
Boomi
GoAnywhere MFT
3 years
470-600 €
Châtillon, Ile-de-France
Hybrid
Le Project Manager est chargé de piloter le chantier d’intégration de la solution cible au sein du SI, en s’appuyant sur des interfaces temps réel ou différées et sur des patterns d’échange définis, qu’il doit challenger ou valider. Il coordonne l’ensemble des travaux avec le responsable du chantier API et interfaces, ainsi qu’avec les responsables des applications et des chantiers en adhérence. Il assure un reporting régulier sur l’avancement et prend en charge le suivi budgétaire des opérations placées sous sa responsabilité.
Contractor job
Expert Camunda V8
Published on
Apache Kafka
API
Camunda
1 year
400-550 €
Paris, France
Hybrid
Je suis à la recherche d'un expert Camunda V8. Camunda V8 - Expert - Impératif Java Full Stack - Expert - Impératif Confluence/Kafka - Confirmé - Important Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..) Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..)
Contractor job
Architecte SAP – Expert Technique (BC/Basis)
Published on
Apache Kafka
SAP
SAP Fiori
3 years
100-500 €
Lille, Hauts-de-France
Hybrid
Mission principale Définir et garantir l’architecture SAP cible (applicative, technique, intégration). Être la passerelle entre les différentes couches SAP : Couche infrastructure (serveurs, OS, DB, réseau) Couche intermédiaire (Basis, administration, monitoring, sécurité) Couche applicative (modules SAP, extensions, Fiori, BTP) Contribuer activement à la migration vers S/4HANA . Assurer l’alignement des solutions SAP avec les standards du groupe et les bonnes pratiques éditeur. Responsabilités clés Concevoir et documenter l’architecture cible SAP (fonctionnelle, applicative et technique). Définir les patterns d’intégration (APIs, EDI, événements). Mettre en place PCA/PRA et modes dégradés. Définir la stratégie de gestion des environnements (SSO, impressions, ordonnanceurs). Valider les choix de paramétrage, développements ABAP et extensions Fiori. Définir les règles de gouvernance et sécurité SAP. Animer les revues de conception (Design Authority). Apporter une expertise sur les simplification items et innovations S/4.
Job Vacancy
Développeur Back-end PROTOCOL BUFFERS (H/F)
Published on
Apache Kafka
Docker
Java
6 months
40k-50k €
310-410 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
CONTEXTE DU PROJET Vous travaillerez au sein d'une équipe agile à taille humaine, dans une bonne ambiance et un cadre de travail agréable. ACTIVITÉS PRINCIPALES • Participer à la conception et mise en œuvre des développements back-end • Développer en respectant les bonnes pratiques, de manière robuste et performante • Participer à la correction des anomalies fonctionnelles et techniques • Communiquer et remonter les alertes aux compétences concernées • Challenger le besoin vis-à-vis des contraintes techniques • Mettre en place des tests unitaires, d'intégration et de non régression ACTIVITÉS SECONDAIRES • Rédaction et actualisation de documents techniques • Support aux équipes fonctionnelles • Suivi de la PROD et gestion des incidents
Job Vacancy
Développeur JAVA Angular CDI (H/F)
Published on
Angular
Apache Kafka
Java
45k-52k €
Ile-de-France, France
Dans le cadre de la modernisation des applications internes et de la mise en place de nouvelles briques orientées micro-services, notre client bancaire recherche un développeur Java / Angular junior (maximum 6 ans d’expérience). Le consultant interviendra au sein d’une équipe agile composée de développeurs, PO et QA. Missions Participer au développement et à la maintenance d’applications front-end Angular et back-end Java. Contribuer à la conception et à l’évolution des microservices Spring Boot . Assurer l’intégration et la consommation de flux Kafka . Participer aux rituels agiles et collaborer avec les équipes internes (PO, tech lead, QA...). Réaliser les tests, assurer la qualité du code et contribuer aux bonnes pratiques (CI/CD, revue de code). Participer au support technique et à la résolution d’incidents applicatifs. Compétences techniques requises Java 8+ , Spring Boot Angular 8+ Kafka (consommation/production de messages) Git, Maven, CI/CD (Jenkins ou équivalent) Connaissance des architectures microservices
Job Vacancy
QA Cypress/Cucumber/MongoDB/Kafka (H/F)
Published on
Apache Kafka
Cucumber
Cypress
1 year
32k-35k €
310-360 €
Lille, Hauts-de-France
Hybrid
📍 Lieu : Lille Langue : Anglais professionnel - Impératif Compétences techniques cypress - Confirmé - Impératif cucumber - Confirmé - Impératif kafka - Confirmé - Important MongoDB - Confirmé - Important Dans le cadre de cette mission, les principales tâches attendues sont les suivantes : - rédaction et exécution des cas de test manuels - création des plans de test pour chaque campagne - rédaction du rapport de synthèse des tests réalisés pour chaque sprint - analyse, animation et suivi des anomalies remontées par l'équipe et les key-users - manipuler des données en BDD afin de constituer les jeux de données nécessaires à l'exécution des campagnes (MongoDB) et utilisation des interfaces (Bruno / Kafka) - participation à l'automatisation des tests sur les composants (Gherkin, Cucumber, Cypress, Playwright) Les livrables Référentiel cas de tests manuels Référentiels cas de tests automatisés Exécution de campagne de tests
Contractor job
Architecte / Ingénieur Data Senior (H/F) PARIS
Published on
Apache Kafka
Apache Spark
Java
12 months
400-500 €
Paris, France
Hybrid
Espace Freelance recherche pour l'un de ses clients un : Architecte / Ingénieur Data Senior (H/F) Vos missions Concevoir l’architecture data pour l’ingestion, le stockage et l’exposition des données IoT. Développer des pipelines évolutifs pour données structurées et non structurées. Définir la stratégie technique et garantir l’intégration/déploiement continu (CI/CD). Maintenir et optimiser les pipelines existants pour de nouveaux cas d’usage (BI, maintenance prédictive, détection d’accidents…). Assurer la qualité, la gouvernance et la traçabilité des données. Contribuer à la communauté Data et participer au choix des outils et normes d’architecture.
Job Vacancy
Devops CLOUD
Published on
Apache Kafka
Azure
Cloud
1 year
Niort, Nouvelle-Aquitaine
Une organisation du secteur assurance recherche un profil confirmé orienté développement et Cloud afin d’assurer la maintenance, l’évolution et la fiabilité de sa plateforme interne de services. Cette plateforme constitue un socle central pour les équipes de développement internes qui consomment principalement des services Cloud de type PaaS. Vous interviendrez au sein d’une équipe en charge des fondations Cloud de l’entreprise, reposant sur deux fournisseurs : un cloud public majeur et un provider PaaS complémentaire. La mission porte plus spécifiquement sur la plateforme de services hébergée chez ce second provider. Ce périmètre comprend notamment : un portail d’accès développé en interne des outils techniques utilisés par les applications hébergées l’accompagnement des équipes internes dans l’adoption des services Cloud Responsabilités principales En binôme avec un profil OPS, vous serez le référent développement du périmètre plateforme de services. À ce titre, vous serez en charge de : Maintenir et faire évoluer la plateforme interne de services Assurer le support auprès des équipes de développement consommatrices du Cloud Public Accompagner les projets souhaitant migrer ou adopter des services Cloud Participer à la conception, à l’intégration et à l’amélioration continue des outils internes Contribuer aux chantiers transverses liés au Cloud et aux socles techniques Collaborer avec les équipes infrastructure, sécurité, architecture et fournisseurs Cloud Participer aux sujets connexes selon les priorités : migration de bases de données, évolutions techniques, amélioration du fonctionnement des environnements Présence sur site requise deux jours par semaine. Démarrage souhaité dès janvier. Compétences techniques attendues Langages et frameworks JavaScript, Java, Scala, Kotlin React, Express.js Play Framework, Pekko (Akka) Technologies et bases de données MongoDB ElasticSearch PostgreSQL Kafka Concepts et bonnes pratiques Haute disponibilité, résilience, scalabilité, fonctionnement en cluster Sécurité applicative : certificats, authentification, RBAC Architecture réseau applicative : gateway, firewall Compréhension des environnements Cloud et des services PaaS Compétences organisationnelles et relationnelles Forte autonomie : rôle de développeur unique sur le périmètre plateforme Polyvalence et capacité à intervenir sur plusieurs sujets techniques Excellente communication, notamment avec : les équipes internes pour favoriser l’adoption du Cloud les fournisseurs Cloud Capacité à travailler en binôme avec les équipes OPS Adaptation aux environnements agiles et aux projets transverses
Contractor job
Développeur Kafka
Published on
Apache Kafka
API REST
1 year
400-680 €
Boulogne-Billancourt, Ile-de-France
Hybrid
Visian recherche pour un de nos clients bancaire un profil Développeur Kafka Sénior afin de renforcer ses équipes IT. Les missions confiées porteront à la fois sur l’ensemble des phases projets ainsi que sur le suivi et la résolution d’incidents, du périmètre applicatif en responsabilité. Participation aux cadrages des projets : étude d’impacts, conception de solutions, chiffrage Rédaction des spécifications fonctionnelles & détaillées, en anglais Mise en place de tests de non-régression automatisés Supervision des travaux de développements externalisés, en anglais Réalisation et exécution de phases de tests IT Rédaction des documentations liées aux évolutions réalisées dans un outil documentaire partagé Préparation et suivi des mises en production des applications du périmètre Suivi de la phase VSR Forte communication avec toutes les parties prenantes métier & IT des projets (conformité, marketing, architectes, …) Suivi, analyse et résolution d’incidents
Contractor job
Ingénieur DevOps Kafka MongoDB GCP (Infrastructures)
Published on
Apache Kafka
12 months
400-720 €
Paris, France
Hybrid
Vous rejoindrez notre équipe en charge des projets d'industrialisation DevOps, vos missions consisteront à contribuer : Mise en place de l'infrastructure GCP pour plusieurs Pays en Terraform Mise en place des connections réseaux avec du PSC. Intégration au projet Miles ( MongoDB et Kafka sont des briques majeures du projet Miles). Mise en place des CI/CD applicatives. Accompagner si besoin les projets sur le Run qui en découle. · L'aspect fonctionnel de Kafka et MongoDB n'entre pas dans les futurs travaux du DevOps.
Contractor job
Lead Data Engineer Streaming
Published on
Apache Kafka
Apache Spark
12 months
700-850 €
Paris, France
Hybrid
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
Job Vacancy
Ingénieur DevOps Big Data (H/F)
Published on
Ansible
Apache Kafka
Cloudera
1 year
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Job Vacancy
skiils | DevOps Senior Kubernetes/Kafka
Published on
Apache Kafka
Kubernetes
1 year
10k-38k €
100-310 €
Morocco
Remote
La Plateforme Data met en œuvre une architecture « Data Centric », point de référence de la data dans le SI pour casser les silos d’information de l’entreprise. Elle fournit ces données par API à l’ensemble de l’écosystème pour généraliser leur traitement et leur consultation en temps réel et permet de simplifier et accélérer les traitements analytiques de nos données pour faire converger l’opérationnel et le décisionnel. Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de participer à la mise en place et à l'amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kafka, Kubernetes et GCP. Il/elle sera en charge de l'automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d'infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. - Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. - Posséder une expertise approfondie de Kafka, y compris sa configuration, sa gestion et son optimisation. - Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. - Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. - Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. - Compréhension des concepts de base des bases de données relationnelles. - Maîtrise des scripts de scripting (bash, Python, etc.). - Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. - Capacité à travailler de manière autonome et à gérer son temps efficacement. - Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. -- Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. -Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
Contractor job
Data Engineer (F/H) - 56
Published on
Apache Kafka
Java
Shell
1 year
Vannes, Brittany
Hybrid
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Contractor job
Administrateur de plateforme Big Data
Published on
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 years
Paris, France
Hybrid
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- freelance tax question
- How to Recover Lost Funds, Usdt? Captain Jack Recovery is here to help
- 5 easy ways to get a job without a CV
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- How Can “Do My Exam for Me” Services Reduce Stress?
- Take Control of Your Printer with Advanced OrcaSlicer Features
Jobs by city
Jobs by country
111 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k