Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Mission freelance
Développeur fullstack Java VueJS
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Offre d'emploi
Développeur(se) fullstack (java 30%/angular 70%)
ACENSI Groupe c'est 224 M€ de chiffre d'affaires et plus de 1800 collaborateurs répartis sur 10 agences françaises, mais aussi à l'international (USA, Canada, île Maurice, Belgique...). Nos consultants s'impliquent sur des projets d'expertise et d'innovation sur les secteurs Télécom, Associatif, Aéronautique, Energie, Banque-Finance, Assurance. ACENSI, toujours détenue en 100% fonds propres par ses 2 fondateurs, est également une championne de la croissance (+20% annuellement depuis 10 ans) et intervient activement sur les projets stratégiques de ses clients, ETI ou grands groupes. Une trajectoire dynamisée par de nouveaux référencements et des forfaits clés récemment remportés. Nous recherchons pour notre client dans le secteur bancaire, un(e) développeur(se) fullstack (70% front end angular et 30% back end java). Il s'agit d'une mission au sein d’une équipe agile en charge du développement d’un portail digital à destination des clients particuliers. Participation aux développements front et back-end dans un contexte agile et DevOps. Missions principales : Développement et évolution de nouvelles fonctionnalités (Angular, Spring Boot, NestJS) Écriture de tests unitaires et d’intégration Analyse et correction des incidents Participation aux revues de code et rituels agiles Contribution au déploiement sur différents environnements (CI/CD, Docker, Kubernetes) Collaboration avec la communauté de développeurs et participation à la veille technologique Environnement technique : Angular, TypeScript, Java 11/17, Spring Boot, NestJS, HTML, CSS, NodeJS, REST, Docker, Kubernetes, GitLab CI/CD, Vault, ELK, Grafana, Dynatrace, MongoDB, Kafka, Postman, Confluence, CMS Headless
Mission freelance
Data Analyst
Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers
Mission freelance
Développeur / Intégrateur Data Semarchy xDI – Nantes (H/F)
Nous recherchons un développeur Semarchy xDI passionné par la data et l’intégration pour rejoindre une équipe dynamique au cœur de projets de transformation digitale. Vous participerez à la mise en place et l’industrialisation de flux de données stratégiques, dans un environnement moderne, agile et stimulant. Vos missions Concevoir, développer et maintenir des flux d’intégration avec Semarchy xDI Participer à la modélisation et optimisation des bases de données (SQL, PostgreSQL, Oracle…) Mettre en place des processus robustes d’ ETL/ELT et d’industrialisation (tests, CI/CD, supervision) Collaborer avec les équipes DataOps, BI et MDM (Semarchy xDM) pour garantir la qualité et la fiabilité des données Contribuer à la documentation, au support et à l’amélioration continue Hard Skills Semarchy xDI (ou Stambia) : conception et développement de flux d’intégration SQL avancé : optimisation, tuning, modélisation de données Bases de données : PostgreSQL, Oracle, SQL Server Architecture data : ETL/ELT, batch & streaming Intégration & API : Kafka, Kafka Connect, REST, XML/JSON Outils & environnements : Git, Gitlab CI/CD, Docker/Kubernetes Bonne connaissance des environnements Agile / Scrum Soft Skills (comportementaux) Esprit analytique et rigueur technique Capacité à travailler en équipe multidisciplinaire (Data, Infra, Métiers) Autonomie et proactivité dans la résolution de problèmes Bonnes qualités de communication (écrit & oral) Curiosité technologique, envie de monter en compétences Orientation qualité et amélioration continue
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Offre d'emploi
Dev C# .Net Core TDD BDD (9 ans et plus)
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 🤝Description détaillée Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur c# backend ayant pratiqué les méthodes TDD et BDD. Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra.
Offre d'emploi
Expert.e RedHat SSO & Keycloak H/F
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Notre client, acteur majeur de la transformation numérique, exploite un Cloud privé interne géré selon les méthodes Agile et SAFe. Au sein de l’équipe Datacenter du train “Service Cloud”, tu participes à la gestion et à l’évolution des clusters techniques, dont l’ Identity Broker RedHat / Keycloak , élément central de la sécurité et de l’authentification. Dans ce contexte, nous recherchons un Expert RedHat SSO & Keycloak pour assurer le RUN, la supervision et l’évolution de la plateforme d’identité du Cloud. Tu interviens au cœur de l’équipe agile pour garantir la performance, la résilience et la continuité de service. Tu auras pour missions de : Assurer le RUN et le MCO de la solution RedHat SSO dans les Datacenters. Gérer les incidents de niveau P1 à P4 de manière autonome, du diagnostic à la correction ou au contournement. Contribuer à la Gestion des Problèmes (GDP) pour identifier et traiter les causes racines. Participer à la Gestion du Changement (GDC) : analyses d’impact, plan d’action et coordination. Administrer techniquement les services liés : Kafka, Consul, Identity Broker. Collaborer étroitement avec les équipes agiles du Cloud sur l’amélioration continue et les déploiements. Garantir la conformité aux SLA et assurer une communication claire avec les équipes de production. Documenter, fiabiliser et automatiser les processus d’exploitation. Stack technique : RedHat SSO, Keycloak, Kafka, Consul, ITIL, GDI, GDP, GDC, Agile, SAFe, Cloud privé, HP Manager, ITSM
Mission freelance
Développeur back (Java bash)
Contexte : Intervention au sein de l’équipe en charge du backoffice lié à la gestion des commandes fournisseurs et des stocks. Participation active à la stabilisation d’un produit legacy critique, en lien avec un programme de modernisation. Collaboration avec plusieurs équipes produit dans un environnement international. Objectifs : Assurer la tenue du run d’un produit legacy en transformation Contribuer à l’amélioration continue (résolution d’incidents, développement de solutions) Participer à la conception et au développement des interfaces de branchement vers les nouveaux produits digitaux via ACL (GCP, NodeJS, API, Kafka) Livrables attendus : Code source complet, versionné et documenté Tests unitaires et d’intégration Scripts d’installation et de déploiement Compétences techniques : SQL, Bash/Shell/Unix, Java (niveau junior requis) C (souhaité, niveau débutant) Anglais lu et écrit impératif Technologies utilisées : Legacy : scripting (shell, bat…), C, SQL, Linux, webservices, Java Modernisation : NodeJS, API REST, Kafka, GCP Outils : ServiceNow, Jira, Sonar, Git
Mission freelance
GraphTalk Developer
Responsabilités principales Concevoir, développer et maintenir des composants applicatifs en Graphtalk AIA v3 . Participer à l’intégration de ces composants dans un écosystème technique moderne (Java, Kafka, Azure). Collaborer avec les équipes d’architectes, d’analystes métier et de QA dans un environnement agile. Contribuer à la documentation technique et à la qualité du code. Participer aux tests unitaires et d’intégration. Assurer le support technique sur les modules existants et accompagner les phases de migration. Compétences techniques requises Graphtalk AIA v3 : expertise confirmée (développement, paramétrage, architecture). Java / Spring Boot : bonne compréhension pour l’intégration. Kafka : maîtrise des principes de la messagerie événementielle. Azure Cloud : familiarité avec les services PaaS (Azure Functions, Service Bus, etc.). Git, CI/CD, Jenkins, SonarQube . Soft skills & profil Autonomie, rigueur et sens de la qualité. Capacité à collaborer à distance dans un environnement agile. Bon sens de la communication technique (français exigé, anglais technique). Curiosité pour les architectures hybrides et les environnements legacy + cloud. Informations pratiques Contrat : Freelance (B2B) Durée : 12 à 24 mois, renouvelable Disponibilité : ASAP Lieu : 100% télétravail (collaboration à distance avec les équipes en Suisse)
Offre d'emploi
Data Engineer Python
Contexte & Objectif de la mission Nous recherchons pour notre client du secteur bancaire un Data Engineer confirmé sur Python. Vous interviendrez en binôme avec le développeur en place sur la conception, le développement et la mise en qualité des flux de migration, tout en garantissant la robustesse et la fiabilité du code déployé. Rôles & Responsabilités Participer aux analyses techniques et au cadrage des besoins de migration/reconsolidation issus des différentes squads. Concevoir et implémenter des solutions data conformes aux bonnes pratiques d’architecture et de développement. Réaliser les développements Python / SQL et les tests associés (unitaires, non-régression). Mettre en œuvre les traitements d’ingestion et de streaming de données (Kafka, SFTP, Dataflow, DBT). Assurer le support technique aux équipes d’homologation et de production. Maintenir les applications du périmètre en condition opérationnelle. Rédiger la documentation technique et assurer un reporting régulier de l’activité. Collaborer activement avec les équipes QA, DevOps et DataOps dans un environnement CI/CD (GitLab, Kubernetes). Environnement technique Python – SQL – Kafka – GCP (BigQuery, Dataflow, Cloud Storage) – DBT – Looker – GitLab – Docker – Kubernetes – Terraform – Helm – Kustomize – Shell – CSV/JSON/XML
Mission freelance
Chef de projet Workplace VDI SCCM Windows 10, Exchange, GPO, Packaging
Chef de projet Workplace VDI SCCM client Banque basé à Guyancourt, un Chef de projet - Expérimenté avec un minimum de 6 ans d’expériences sur des projets similaires avec une expérience significative sur les VDI. SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets Localisation Guyancourt (78)/ Télétravail Durée de la mission : 2 ans Projet : Chef de projet expérimenté devant connaitre les aspects Workplace et plus particulièrement les VDI. le candidat va être amené à travailler dans un contexte international. Principaux livrables : Spécifications, configurations, développements d’ APIs Compétences requises : SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets
Offre d'emploi
Tech Lead Databricks
Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable
Offre d'emploi
Développeur Back End Java/Spring Boot/GCP (400€ MAX)
Le prestataire est consulté compte tenu de son expertise dans le développement d’applications backend en environnement Agile et en contexte international. - Expertise en développement Java/Spring Boot - Maitrise du Cloud GCP - Maitrise de GIT, Gitlab, Gitlab CI et principes CI/CD - Maitrise de bases de données SQL/NoSQL - Maitrise de projets api/event-driven ou streaming data - Connaissances GKE, Cloud Storage, Solace, PubSub ou Kafka - Connaissance en développement de pipeline de donnée (Beam/Data Flow) - Maitrise des méthodologies Agile et certification SAFe - Maitrise de l’anglais
Offre d'emploi
Développeur Java EE (H/F)
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet de développement back-end. - Concevoir, développer et maintenir des applications en respectant les spécifications - Participer au Code Review avec les autres développeurs du projet - Ecrire de tests unitaires et fonctionnels durant vos développements - Travailler en collaboration avec une équipe agile et participer aux réunions techniques La stack technique : - Java (8/11/17) - SpringBoot - Hibernate - SQL - Microservice - Kafka - API Rest
Offre d'emploi
Architecte Logiciel
Vous intégrerez une cellule Architecture et serez chargé(e) de l’ étude, de la conception et de la supervision de l’architecture logicielle globale de plusieurs produits stratégiques. Votre rôle : garantir la robustesse, la cohérence et la scalabilité des solutions, en collaboration avec les équipes de développement, les DevOps et les chefs de projet. Activités principales : Définir une architecture logicielle robuste, évolutive et flexible. Fournir une orientation technique aux équipes de développement tout au long du cycle projet. Garantir l’intégration harmonieuse des composants logiciels et leur alignement avec les bonnes pratiques. Suivre les évolutions technologiques et recommander les solutions adaptées. Assurer l’exploitabilité et la cohérence des solutions dans le SI global. Livrables : Dossiers d’architecture logicielle globale (diagrammes, flux, interfaces). Spécifications techniques (langages, frameworks, sécurité, performances). Rapports d’évaluation et d’analyse (comparaison des options, estimation des efforts). Comptes rendus d’activités .
Offre d'emploi
DEVELOPPEUR FULLSTACK JAVA ANGULAR GCP (450€ MAX)
Le prestataire est consulté compte tenu de son expertise dans le développement d’applications FULLSTACK en environnement Agile et en contexte international. - Expertise en développement Java/Spring Boot et Angular - Maitrise du Cloud GCP - Maitrise de GIT, Gitlab, Gitlab CI et principes CI/CD - Maitrise de bases de données SQL/NoSQL - Maitrise de projets api/event-driven ou streaming data - Connaissances GKE, Cloud Storage, Solace, PubSub ou Kafka - Connaissance en développement de pipeline de donnée (Beam/Data Flow) - Maitrise des méthodologies Agile et certification SAFe - Maitrise de l’anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.