Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 221 résultats.
Mission freelance
2 développeurs C# .Net - Clermont Ferrand (63) - Janvier
Montreal Associates
Publiée le
.NET
.NET Framework
Apache Kafka
12 mois
400-450 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
🚀 𝗠𝗶𝘀𝘀𝗶𝗼𝗻𝘀 𝗹𝗼𝗻𝗴𝘂𝗲𝘀 𝗖# / .𝗡𝗘𝗧 - 𝗖𝗹𝗲𝗿𝗺𝗼𝗻𝘁 𝗙𝗲𝗿𝗿𝗮𝗻𝗱 - 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 📍 𝗖𝗹𝗲𝗿𝗺𝗼𝗻𝘁-𝗙𝗲𝗿𝗿𝗮𝗻𝗱 | 🏢 𝟯𝗷 𝗼𝗻𝘀𝗶𝘁𝗲 / 𝟮𝗷 𝗿𝗲𝗺𝗼𝘁𝗲 🗓 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 : 𝗷𝗮𝗻𝘃𝗶𝗲𝗿 | 𝗖𝗼𝗻𝘁𝗿𝗮𝘁𝘀 𝗱𝗲 𝟭𝟮 𝗺𝗼𝗶𝘀 𝗿𝗲𝗻𝗼𝘂𝘃𝗲𝗹𝗮𝗯𝗹𝗲𝘀. 𝟮/𝟯 𝗮𝗻𝘀 𝗱𝗲 𝗽𝗿𝗼𝗷𝗲𝘁𝘀. 𝗙𝗿𝗲𝗲𝗹𝗮𝗻𝗰𝗲𝘀, 𝗮̀ 𝘀𝗼𝗻 𝗰𝗼𝗺𝗽𝘁𝗲, 𝗢𝗡𝗟𝗬. 𝗣𝗮𝘀 𝗱𝗲 𝘀𝘁𝗮𝘁𝘂𝘁 𝗲𝗺𝗽𝗹𝗼𝘆𝗲́ 𝗻𝗶 𝗽𝗼𝗿𝘁𝗮𝗴𝗲 𝘀𝗮𝗹𝗮𝗿𝗶𝗮𝗹 Nous recherchons 2 développeurs C# / .NET freelances pour des projets industriels à forte exigence technique. 🔹 𝗗𝗲𝘃 𝗖# / .𝗡𝗘𝗧 / 𝗪𝗣𝗙 C# / .NET / WPF Architecture N-Layers, SQL Git, JIRA Expérience projet industriel appréciée Sensibilité aux contraintes de performance (informatique industrielle / process) 🔹 𝗟𝗲𝗮𝗱 𝗗𝗲𝘃 𝗖# / .𝗡𝗘𝗧 C# / .NET, Kafka CI/CD, DevSecOps Appétence Kubernetes Forte capacité d’analyse & delivery Forte capacité à traduire le besoin métier en solution technique Force de proposition, dynamisme, culture produit 📩 Intéressé(e) ? #Freelance #DotNet #CSharp #WPF #Microsoft
Mission freelance
Tech lead Java (H/F)
Insitoo Freelances
Publiée le
Apache Kafka
Flutter
Google Cloud Platform (GCP)
2 ans
400-450 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech lead Java (H/F) à Hauts-de-France, France. Les missions attendues par le Tech lead Java (H/F) : Architecture & Conception : Définir et faire évoluer l'architecture (dominante Backend) Garant de la Stack : Assurer la cohérence technique sur l'ensemble du périmètre (Web, Mobile et Backend). Delivery & Qualité : Superviser les revues de code, définir la stratégie de tests et garantir la mise en production via les pipelines CI/CD. Interface Transverse : Communiquer et coordonner les sujets techniques avec les services supports transverses : DATA : Pour l'exploitation des flux via BigQuery et Kafka. CYBER : Pour garantir la sécurité des données et la gestion des secrets (Vault). OPS/Infrastructure : Pour le pilotage de l'environnement Kubernetes (GKE). Expertise Produit : Traduire les besoins métier du Product Manager en spécifications techniques actionnables. Le candidat doit maîtriser ou encadrer les technologies suivantes : Backend (Cœur de mission) : Java 21, Spring Boot, Spring WebFlux (programmation réactive), Spring Data, Hibernate. Frontend & Mobile : Vue.js 3, Flutter 3 (Dart). Data & Messaging : Apache Kafka (Flux temps réel), PostgreSQL, BigQuery. Cloud & Infra (GCP) : Google Kubernetes Engine (GKE), Google Cloud Run, Cloud Functions. Sécurité & DevOps : HashiCorp Vault, GitHub Actions (CI/CD), Docker. Qualité : JUnit, Mockito, SonarQube. Profil recherché Expertise technique : Seniorité confirmée sur l'écosystème Java/Spring avec une vision globale (Fullstack). Soft Skills : Excellente capacité de communication pour vulgariser des sujets techniques auprès des parties prenantes non-techniques. Langues : Anglais courant indispensable (contexte international). Mindset : Sensibilité forte aux problématiques de performance et de scalabilité. 3 jours de présentiel sur site
Offre d'emploi
Lead Dev Débutant (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Bash
Enterprise Service Bus (ESB)
12 mois
33k-45k €
100 €
Lille, Hauts-de-France
Dans un contexte de modernisation des applications legacy nous recherchons un lead développeur pour intervenir sur les applications liées au référencement des données de l’offre (produit, fournisseur, prix…). La mission permettra des interventions sur toute la chaîne de la conception jusqu'au déploiement ainsi qu'à la gestion du run (culture DevOps). En tant que lead développeur, vous intégrerez une équipe agile composée d'un PO et de 2 développeurs. Dans cette équipe, vous serez garant de la qualité des features développées dans le respect des bonnes pratiques de développement et des choix technologiques sur les différents composants du périmètre. Des ressources externes à l’équipe seront disponibles pour permettre l’atteinte des objectifs. Le candidat devra comprendre rapidement l'écosystème au sein d'un contexte de modernisation Sera capable de prendre en charge les développements sur différents langages Sera capable d'utiliser la CI/CD pour intégrer les nouvelles features au produit Sera capable d'utiliser / analyser les sujets API du périmètre Une expertise dans le retail serait un plus pour le candidat !
Mission freelance
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka)
Comet
Publiée le
Apache Kafka
API REST
Java
250 jours
500-580 €
Châtillon, Île-de-France
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka) Contrainte forte : Environnement e-commerce Objectif global Développer et faire évoluer les API du périmètre e-commerce dans un contexte de modernisation de la plateforme. Livrables Développements back-end Conception technique Tests unitaires Compétences techniques attendues Java 11+ : niveau expert, impératif Spring Boot 2+ : niveau expert, impératif API RESTful : niveau expert, impératif Messaging / Kafka : niveau confirmé, important Français courant : impératif Description de mission Le consultant participera à l’ensemble du cycle de développement des API e-commerce. Ses principales activités seront : Développer de nouvelles API. Contribuer à l’amélioration des performances globales de la plateforme. Participer à la modernisation de l’architecture (adoption de nouvelles technologies, urbanisation du SI). Garantir la qualité du code et prendre part aux revues de code. Participer au RUN applicatif : monitoring, reporting, traitements récurrents. Rôle et responsabilités (référentiel Expert) Analyse Contribue à l’analyse fonctionnelle détaillée. Participe aux ateliers de définition des besoins et des spécifications. Étudie la faisabilité technique et réalise l’analyse détaillée. Contribue à l’estimation des charges. Conception et développement Participe au design logiciel et aux choix de frameworks. Réalise du prototypage si nécessaire. Analyse et développe les composants avec les langages appropriés. Contribue à la structuration des bases de données. Participe aux revues croisées des développements. Prépare le dossier d’exploitation pour la mise en production. Assemble les composants dans un package cohérent et gère la configuration. Documente les applications pour les futures évolutions et pour la MEP. Industrialise et harmonise les composants. Utilise et met à jour les composants logiciels réutilisables. Tests unitaires et intégration Rédige et exécute les tests unitaires. Identifie et corrige les dysfonctionnements. Vérifie la conformité du développement aux besoins exprimés. Contribue aux tests d’intégration et à leur préparation. Analyse les résultats et rédige le rapport de tests. Maintenance Réalise les développements liés à la maintenance corrective et évolutive. Participe à l’analyse et à la résolution des incidents de production.
Mission freelance
Data engineer
Deodis
Publiée le
Ansible
Apache Airflow
Apache Kafka
1 an
320-330 €
Île-de-France, France
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Offre d'emploi
Teach Lead Java / React /Redux F/H
cty
Publiée le
Angular
Apache Kafka
Hibernate
3 ans
Île-de-France, France
Description d’emploi: À propos de l’entreprise CTY est un cabinet de conseil fondé en 2015, dans le but de répondre à une problématique collaborative entre le besoin client et les attentes de nos consultants. Nous accompagnons nos clients (BFI, Assets Managers, Brokers, Editeurs de logiciels...) dans leurs projets IT les plus stratégiques via notre expertise : - Technique #DEVOPS #BigData #Hadoop #AngularJS #NoSQL # #Java - Gestion de projet #Agile #Scrum #Craftsmanship #Kanban #PMI #Lean Management - Métier #Pricers #TradingElectronique #TempsRéel #Risques #Réglementaires Mission: Dans le cadre de projets menés pour un grand compte, nous recherchons Tech Lead Java, disposant d’une première expérience significative en environnement bancaire. Vous interviendrez sur le développement et l’évolution d’applications métier à forte volumétrie, en interaction directe avec les équipes Front Office (ventes, trading) ou autres équipes opérationnelles. Identifier des solutions d'architectures adaptées au contexte et répondant au besoin: dossiers de choix et préconisation de solutions à privilégier, Animer et piloter la relation avec les équipes Produire des spécifications techniques et l'implémentation d'évolutions dans la brique middleware dans le respect des engagements de coût, qualité, délais de mise en œuvre, Gestion et maintien en Conditions Opérationnelles (MCO), Industrialiser des processus de déploiement (DEVOPS) et amélioration continue du niveau d'ingénierie de la plateforme, Implémenter les évolutions Middleware pour la transformation des flux partenaires en vue de leur interopérabilité avec la solution Gambitet l'ensemble des partenaires impliqués, Réaliser les tests unitaires et tests techniques d'intégration avant de passer la main aux équipes de recette et d'homologation, Sécuriser le delivery management, Sécuriser le bon déroulement des travaux IT End to End: Front, middleware, back-end et Data.
Offre d'emploi
Concepteur Technique .NET / React (H/F)
Lùkla
Publiée le
.NET
Apache Kafka
Apigee
6 mois
Rouen, Normandie
Dans le cadre d’un projet de refonte du système d’information , nous recherchons 1 à 2 Concepteurs Techniques disposant d’un solide background .NET / React . Vous interviendrez principalement sur les phases de conception technique et d’analyse d’impact , en étroite collaboration avec les équipes métiers et les développeurs. Vos missions principales : Participer aux revues hebdomadaires des User Stories métiers Évaluer la faisabilité technique (niveau micro) Vérifier la cohérence avec l’existant Garantir une rédaction claire, complète et exploitable par les développeurs Réaliser les analyses d’impact liées aux nouvelles fonctionnalités Identifier les composants impactés Anticiper les risques de régression sur les composants mutualisés Proposer des opportunités de refactorisation pour assurer la maintenabilité Rédiger la documentation de conception technique Pages de conception détaillant les deltas à implémenter Liste des impacts par composants et arbitrages réalisés Rédaction des contrats d’interface API (Swagger / YAML) Mise à jour du référentiel applicatif , reflet du SI en production en fin de projet Présenter les conceptions aux équipes de développement Accompagner les développeurs durant la phase de réalisation Valider les Pull Requests d’un point de vue conception et conformité aux attendus Le cœur de la mission repose sur une excellente capacité d’ analyse de l’existant afin de le faire évoluer de manière optimale (réutilisation, adaptation, refactorisation).
Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)
ARENA SI
Publiée le
Apache Kafka
DevOps
Finance
12 mois
75002, Paris, Île-de-France
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Mission freelance
Chef de Projet Intégration Systèmes – SAP S/4 / Salesforce
Groupe Aptenia
Publiée le
Apache Kafka
Datadog
Enterprise Service Bus (ESB)
6 mois
Courbevoie, Île-de-France
Dans le cadre du renforcement de la fiabilité et de la cohérence des données circulant entre SAP S/4HANA et Salesforce, nous recherchons un Chef de projet spécialisé dans les intégrations complexes, capable de piloter et d’optimiser les flux order-to-cash (Orders, Deliveries, Invoices). Les échanges inter-systèmes s’appuient principalement sur Kafka et Mulesoft, et les analyses de données sur Snowflake et Datadog 1. Pilotage de projet & coordination • Gérer l’ensemble du cycle de vie des projets d’intégration entre SAP S/4 et Salesforce. • Coordonner les équipes internes (IT, Data, Salesforce, SAP, Support) et les partenaires externes. • Définir et suivre la roadmap d’amélioration continue des flux inter-systèmes. • Animer les comités projet, rédiger les comptes rendus, assurer le suivi des actions. 2. Analyse et optimisation des flux de données • Comprendre et cartographier les flux existants concernant Orders, Deliveries, Invoices. • Identifier les écarts, incohérences ou ruptures de synchronisation entre SAP S/4 et Salesforce. • Proposer des optimisations techniques et fonctionnelles pour réduire les delta de données. • Concevoir et documenter les règles de gestion d'intégration / transformations des données. 3. Supervision, monitoring & résolution de problèmes • Utiliser Datadog pour superviser les flux Kafka et Mulesoft, détecter les anomalies et mettre en place des alertes pertinentes. • Identifier et prioriser les causes d’erreurs (pareto), et proposer des plans de remédiation. • Piloter la résolution des incidents critiques, suivre la qualité des données et la stabilité des interfaces. • Contribuer à l’amélioration du SI en mettant en place des standards et bonnes pratiques de monitoring. 4. Reporting, analyse et exploitation de Snowflake • Construire des rapports d’analyse basés sur Snowflake pour suivre la qualité et la cohérence des transactions. • Mettre en place des indicateurs de performance pour le monitoring des flux (completeness, latency, error rate…). • Fournir des analyses régulières au management sur l’évolution des écarts et des incidents.
Offre d'emploi
CHEF(FE) DE PROJET TECHNIQUE / SYSTEM OWNER - Expert (>10 ans)
Deodis
Publiée le
Apache Kafka
Boomi
GoAnywhere MFT
1 an
Île-de-France, France
Au sein de la DSI-PDV, rattaché(e) au pôle Encaissement et Promotion du domaine Encaissement et Monétique , le/la Chef(fe) de Projet Intégration et Flux intervient dans le cadre du programme NEMO (Nouvel Encaissement Mousquetaires Omnicanal). Il/elle pilote le chantier d’intégration de la nouvelle solution d’encaissement au sein du SI du Groupement, en s’appuyant sur des interfaces temps réel et différées conformes aux patterns d’échange définis. Responsable de la conception, de la validation et de la mise en œuvre des flux (incluant la supervision), il/elle coordonne l’ensemble des acteurs techniques et métiers impliqués, assure le suivi budgétaire, le respect des délais et du périmètre, ainsi que le reporting auprès des instances de gouvernance du programme. À ce titre, il/elle contribue à la rédaction et à la validation des contrats d’interfaces, des dossiers de conception et des cahiers des charges, prépare et sécurise les mises en production, et garantit l’application des standards d’architecture, de qualité, de sécurité et de gouvernance du Groupement, dans un environnement technique exigeant reposant notamment sur GoAnywhere MFT, Boomi, Kafka et Solace.
Mission freelance
Architecte Data IoT
Cherry Pick
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Offre d'emploi
Développeur Full Stack Java Vue JS
Etixway
Publiée le
Apache Kafka
Java
Vue.js
Lille, Hauts-de-France
Objectif global : Développer DEV pour implémenter produit digital Contrainte forte du projet - Anglais Le livrable est - Compétences techniques Java/Spring - Confirmé - Important Vue - Confirmé - Important Kafka - Confirmé - Important Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Nous recherchons un développeur fullstack Java/Vue (H/F). Il/Elle interviendra principalement sur une nouvelle brique applicative à destination de plusieurs pays et participera ponctuellement sur d'autres applications gérées dans l'équipe. Le nouveau produit digital est dédié à fournir une nouvelle expérience de validation des changements de prix de vente auprès de nos équipes de pricing. Vos missions sont les suivantes : Conception et développement des différentes briques logicielles Mise en place des tests unitaires et des tests d'intégration Intervenir dans la mise en place de l'outillage logiciel pour l'automatisation des tests et l'intégration continue Assurer le suivi des tâches JIRA Participer à la revue de code Rédaction et actualisation des documentations techniques. Etre force de proposition, et challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Participer aux différents rituels agiles projet Environnement technique: - Java/spring - Vue - MongoDB - Kafka - GCP
Offre d'emploi
DEVELOPPEUR(SE) BACK
SMARTPOINT
Publiée le
Apache Kafka
Java
Springboot
1 an
Île-de-France, France
Pour renforcer une équipe sur un projet E-commerce à forte exigence technique. Missions principales -Développer de nouvelles API -Contribuer à l'amélioration des performances globales de la plateforme -Participer à la modernisation de la plateforme (adoption de nouvelles technologies, urbanisation du SI) -Garantir la qualité des livrables et participer aux revues de code -Participer au Run app Java 11+ - Expert - Impératif Spring Boot 2+ - Expert - Impératif API Restful - Expert - Impératif Messaging (Kafka) - Confirmé - Important
Offre d'emploi
Data & IA Engineer (H-F)
Big Apps
Publiée le
AI
Apache Airflow
Apache Kafka
Paris, France
Big APPS recrute un(e) Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)
Argain Consulting Innovation
Publiée le
Agile Scrum
Apache
Apache Kafka
1 an
40k-45k €
400-550 €
Vannes, Bretagne
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
SQUARE ONE
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage au réel après dépassement micro : notification URSSAF ?
- Barème kilométrique interdit pour les TNS, vrai ou faux ?
- Sérieusement, pourquoi les CRA sont encore un truc en 2026 ?
- Freelances : qu’est-ce qui est le plus difficile au quotidien ?
- 30+ appels reçus pour des missions depuis juin, 1 seul entretien avec client final
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
221 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois