Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 292 résultats.
Offre d'emploi
Développeur SENIOR C# .Net Core TDD BDD (9 ans et plus)
Digistrat consulting
Publiée le
.NET
.NET CORE
C#
3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 🤝Description détaillée Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur c# backend ayant pratiqué les méthodes TDD et BDD. Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra.
Offre d'emploi
Développeur Java EE (H/F)
Amiltone
Publiée le
Java
30k-35k €
Avignon, Provence-Alpes-Côte d'Azur
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet de développement back-end. - Concevoir, développer et maintenir des applications en respectant les spécifications - Participer au Code Review avec les autres développeurs du projet - Ecrire de tests unitaires et fonctionnels durant vos développements - Travailler en collaboration avec une équipe agile et participer aux réunions techniques La stack technique : - Java (8/11/17) - SpringBoot - Hibernate - SQL - Microservice - Kafka - API Rest
Offre d'emploi
Ingénieur Qualité Sénior H/F
DAVRICOURT
Publiée le
40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Qualité Senior pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Définir et piloter la stratégie de tests globale pour la plateforme cliente ; - Concevoir, exécuter et maintenir les tests manuels ainsi que les scénarios de non-régression ; - Accompagner l'équipe dans l'automatisation des tests API / Kafka et l'intégration dans la CI/CD ; - Animer les rituels qualité (Three Amigos, Sprint Review), suivre les métriques et piloter la gestion des bugs. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Offre premium
Offre d'emploi
Administrateur Datadog
Lùkla
Publiée le
Datadog
3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Offre d'emploi
Développeur fullstack orienté back java spring boot H/F
HAYS France
Publiée le
40k-50k €
Bordeaux, Nouvelle-Aquitaine
Vos missions Vous développez des API et modules backend en Java / Spring Boot 3+ Vous optimisez les traitements, la performance et la structuration des données Vous contribuez au développement frontend en Angular 18+ Vous participez aux phases de conception, d'architecture et d'amélioration continue Vous réalisez les tests unitaires et assurez la fiabilité des services Vous appliquez les bonnes pratiques Git et participez aux revues de code Vous collaborez avec les équipes front pour garantir une intégration fonctionnelle fluide Stack technique Back : Java - Spring Boot 3+ Front : Angular 18+ SQL (intermédiaire / optimisation appréciée) Git, GitFlow Docker (débutant) Kafka / event-driven (apprécié) Data processing & performances (appréciés)
Offre d'emploi
Tech Lead Data (H/F)
Amiltone
Publiée le
30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
Mission freelance
Data engineer GCP Google cloud platform 500 e par jour
BI SOLUTIONS
Publiée le
Docker
Google Cloud Platform (GCP)
2 ans
400-500 €
Île-de-France, France
Data engineer GCP Google cloud platform 500 e par jour Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner et des chefs de projets • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Connaissances techniques : • Plateforme et environnement GCP (indispensable) • Environnement GKE • Stockage : HDFS / GCS • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala • Planification : Airflow / Composer • Méthodologies : Scrum, Kanban, Git • DWH : SQL, BigQuery, BigTable • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build 500 e par jour
Mission freelance
Développeur Java cobol 400 e par jour
BI SOLUTIONS
Publiée le
COBOL
Java
2 ans
200-400 €
Île-de-France, France
Développeur Java cobol 400 e par jour JAVA (spring boot / framework interne / SpringBatch / JDK17) : développement, déploiement et exploitation 4 Concepts et outils de containerisation Docker Kubernetes 4 API Management (KONG - WSO2) 4 DB2, PostGreSQL Producer / consumer / Pattern Kafka 4 Bucket S3 CI/CD Gitlab (pipelines) Option : CICS Conception technique - Développement - Test et assistance à recette - Mise en production COBOL, MQ Series, CFT, DB2, CICS, MVS, z/OS,SQL, IDZ 400 e par jour hors taxe
Offre d'emploi
Expertise Spark Data
NEO SOFT SERVICES
Publiée le
Apache Spark
20 jours
35000, Rennes, Bretagne
Dans le cadre d’un besoin interne, nous recherchons un Expert Data Engineer spécialisé Spark. La mission porte sur une solution de traitement de données dédiée à des usages de statistiques et de Business Intelligence. Cette solution repose sur une architecture intégrant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur une infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To de données par an Tâches à réaliser : Réalisation d’une analyse technique et d’un état des lieux de l’existant Élaboration de recommandations d’amélioration : Optimisation du streaming Spark, notamment sur les aspects temps réel et dimensionnement de l’infrastructure Recommandations sur le dimensionnement de l’infrastructure pour le traitement en temps réel Optimisation de MongoDB, incluant la structuration et la standardisation des modèles de données Rédaction d’un document d’architecture cible accompagné des préconisations associées
Offre d'emploi
Développeur Full-Stack H/F
DAVRICOURT
Publiée le
Full stack
35k-40k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Développeur Full-Stack Node.js / Nest.js pour l'un de nos clients. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Développer et faire évoluer les APIs, BFF et services métier en Node.js / Nest.js ; - Structurer, optimiser et moderniser le monorepo (Nx / Turborepo) et contribuer à son industrialisation ; - Mettre en œuvre et maintenir les traitements event-driven via Kafka (producers, consumers, schémas) ; - Assurer la performance et la qualité logicielle : tests, revues de code, clean code, monitoring ; - Participer activement aux rituels agiles et collaborer étroitement avec les équipes PO, UX, data et développement ; - Contribuer à l'observabilité du produit (Datadog), à la scalabilité des services et à l'amélioration continue des pratiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Senior Azure Data & Backend Engineer (Observabilité) - ASAP - 92
Montreal Associates
Publiée le
Apache Airflow
Apache Spark
Azure
3 ans
550-600 €
Nanterre, Île-de-France
🚀 Je recherche un Senior Data / Backend Engineer (Freelance) Grosse mission à venir sur une data platform moderne orientée observabilité 🔥 📍 92 (hybride 2-3j/semaine) 📆 Mission longue de 3 ans - ASAP English mandatory Ta mission • Construire des pipelines data robustes (Spark, Airflow) • Travailler sur des problématiques d’observabilité (monitoring, logs, métriques) • Contribuer à une plateforme data à fort enjeu • Évoluer dans un environnement Azure complet Python • PySpark • Airflow • Azure (ADLS, AKS, Blob) • Kafka / Event Hub • Grafana Ton profil • Senior avec vraie expérience en data pipelines en production • À l’aise avec Azure • Sensibilité observabilité / monitoring #freelance #dataengineer #python #azure #spark #airflow #observability
Mission freelance
Développeur C# senior H/F
LeHibou
Publiée le
C#
1 an
500 €
Pantin, Île-de-France
Notre client dans le secteur Banque et finance recherche un/une Développeur C# seniorH/F Description de la mission: Le client est un acteur majeur du secteur bancaire à la recherche d'un développeurs C# senior pour renforcer l’équipe. Environnement technique : C# Architecture microservices Linux Cassandra Kafka SQL Compétences attendues : expérience architectures microservices développement backend robuste gestion de systèmes distribués capacité à évoluer dans des environnements techniques complexes Compétences / Qualités indispensables : Anglais, C# Compétences / Qualités qui seraient un + : Avoir déjà travaillé en environnement bancaire Informations concernant le télétravail : 2 jours de télétravail par semaine
Mission freelance
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
292 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois