Find your next tech and IT Job or contract Logstash
Your search returns 11 results.
Contractor job
Ingénieur Collecteur & SIEM - Administrateur Outils de Sécurité (H/F)
Published on
Linux
Logstash
12 months
400-610 €
Paris, France
Hybrid
Au sein du pôle Outils de Sécurité, vous aurez pour mission principale la gestion, l'optimisation et la sécurisation de l'architecture de gestion des journaux (logs). Vous évoluerez dans un environnement technique complexe et critique, avec une forte composante d'industrialisation. Vos missions principales : Architecture & Logs : Installation, paramétrage et revue de l'efficience de l'architecture de gestion des journaux. Administration Système : Gestion de l'administration des serveurs, des configurations et maintien en condition de sécurité (durcissement, certificats PKI). Expertise Technique : Utilisation avancée des écosystèmes Open Source et des solutions de collecte (rsyslog, logstash, auditbeat) et SIEM. Industrialisation : Force de proposition pour l'automatisation des tâches récurrentes via scripting (Python, Ansible, Shell). Amélioration Continue : Analyse des causes d'incidents selon les bonnes pratiques ITIL et rédaction de la documentation d'exploitation. Profil recherché : Formation : Niveau Bac +4 minimum. Expérience : Au moins 5 ans d'expérience en production de systèmes d'information sur des environnements complexes ou critiques. Compétences Obligatoires : Maîtrise de Linux (certifications demandées), rsyslog, logstash, auditbeat et outils SIEM. Qualités : Esprit d'analyse, autonomie, rigueur opérationnelle et capacité à évoluer dans une organisation matricielle.
Contractor job
Consultant ELK
Published on
Ansible
Apache Kafka
Kibana
3 years
Ile-de-France, France
Remote
Contexte de la mission Le périmètre concerné couvre la gestion des flux de logs applicatifs et techniques au sein de notre infrastructure. Nous utilisons une chaîne de traitement basée sur les technologies Filebeat, Kafka, Logstash, Elasticsearch et Kibana. Nous avons besoin d’un renfort opérationnel capable de prendre en charge ces demandes de manière autonome, depuis la réception du besoin jusqu’à la mise en production. Détails de la prestation attendue La prestation consistera à : Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elastics. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utilisation de Git pour la gestion des configurations Logstash et Filebeat. Déploiement automatisé via AWX, en respectant les procédures et les bonnes pratiques.
Contractor job
Expert Elastic Cloud H/F
Published on
Elasticsearch
Kibana
Logstash
6 months
700-820 €
Hauts-de-Seine, France
Hybrid
Nous recherchons pour le compte de notre client un Expert Elastic Cloud H/F pour une mission en freelance ou portage salarial de plusieurs années à pourvoir dès que possible dans les Hauts-de-Seine (92). Notre client propose 2 jours de télétravail maximum par semaine. Vous intervenez sur la V3 d’une plateforme EDI très critique et par laquelle transitent tous les flux. Vos missions sont les suivantes : Design, implémentation et déploiement de la solution Elastic cloud : · Création des environnements Elastic cloud · Intégration des pipelines de log/métriques · Participation à la définition des dashboards Kibana, implémentation de ces derniers · Apport de votre expertise dans la maintenance de niveau 3/4, l’analyse des anomalies complexes, et la résolution des incidents critiques. · Automatisation des déploiements et backup · Gouvernance des environnements Elastic cloud : · Suivi des versions et gestion de la plateforme (recommandations, stratégie de migration, bugs produit, etc.). · Mise en conformité avec les contraintes de sécurité de notre client (droits sur les utilisateurs, réseau privé, …) · Optimisation de la plateforme et FinOps : performance, stockage, monitoring et suivi des coûts avec un capacity planning
Job Vacancy
Developpeur(se)Mulesoft Confirmé(e)
Published on
Apache Maven
API REST
Batch
1 year
Paris, France
Au sein de l'équipe intégration, vous participez à la conception, au développement et à l'évolution des flux et API au sein de la plateforme Mulesoft: Vos principales missions son les suivantes: • Comprendre l’environnement client (métier, informatique et projet). • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets. • Collaborer avec les équipes métier et projet à toutes les étapes du cycle de vie du projet. • Être force de proposition dans la conception des solutions techniques sur la plateforme MuleSoft. • Développer de nouveaux flux et API, maintenir et faire évoluer les existants. • Contribuer activement à l’amélioration continue et au bon fonctionnement de la plateforme MuleSoft. • Participer à l’analyse et à la résolution des incidents de production. • Appliquer et promouvoir les bonnes pratiques MuleSoft (conception, développement, sécurité, documentation). • Rédiger la documentation technique associée aux développements réalisés.
Contractor job
Consultant ELK (h/f)
Published on
1 month
111 €
92400, Saint-Germain-en-Laye, Île-de-France
Introduction & Résumé: Nous recherchons un consultant ELK sénior pour une mission en remote, avec des déplacements occasionnels. Le candidat idéal doit posséder une expertise poussée dans l'utilisation des composants de la chaîne ELK, Démarrage ASAP possible Responsabilités Principales: Le consultant sera chargé de la mise en place des solutions ELK en respectant les meilleures pratiques. Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elasticsearch. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utiliser Git pour la gestion des configurations Logstash et Filebeat. Déployer automatiquement via AWX, en respectant les procédures et les bonnes pratiques. Exigences Clés: Maîtrise des composants de la chaîne ELK : Filebeat, Kafka, Logstash, Elasticsearch, Kibana. Expérience dans la mise en œuvre de pipelines de logs. Connaissance des formats de logs et des bonnes pratiques d’ingestion. Maîtrise de Git pour la gestion des configurations techniques. Expérience avec AWX ou Ansible pour le déploiement automatisé. Connaissance des environnements Linux. Autonomie, rigueur et capacité à travailler en transverse avec plusieurs équipes. Capacité à rédiger une documentation claire et structurée. Autres Détails: Cette mission se déroulera en remote, avec des déplacements occasionnels prévus. Le consultant travaillera dans un environnement dynamique et innovant.
Contractor job
Consultant Kafka H/F
Published on
Apache Kafka
API
DevOps
3 years
550-650 €
Paris, France
Hybrid
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Contractor job
Développeur Node.JS ElasticSearch (H/F)
Published on
Elasticsearch
12 months
Hauts-de-France, France
Hybrid
TEKsystems recherche pour l'un de ses clients grand compte un(e) Développeur ElasticSearch Node.JS Responsabilités • Améliorer et maintenir le moteur de recherche interne basé sur ElasticSearch • Exploiter les fonctionnalités avancées et les nouvelles releases Elastic • Optimiser la pertinence, le scoring et les performances de recherche • Développer des scripts (Node.js) et des algorithmes pour le traitement de données • Collaborer avec les équipes front et back pour l’intégration du moteur dans le site e-commerce • Participer à la veille technique et à la montée en compétence de l’équipe Technos principales : • ElasticSearch (expertise cœur, fine tuning, configuration avancée, performance & scoring) • Node.js / JavaScript (pour le scripting et la logique applicative) • Kubernetes (Kubens) – maîtrise indispensable • CI/CD, Git, tests automatisés, bonnes pratiques d’ingénierie logicielle Technos non utilisées ou secondaires : • Pas de Logstash / Ruby (aucune balise à gérer) • Pas de développements externes en Java ou Python • Version sous licence Elastic, différente d’OpenSearch (non open source)
Job Vacancy
INGENIEUR SRE
Published on
AWS Cloud
Azure
MySQL
3 years
40k-55k €
400-500 €
Strasbourg, Grand Est
Ingénieur SRE (Site Reliability Engineer) – H/F Dans le cadre du renforcement de notre équipe Infrastructure, nous recherchons un Ingénieur SRE pour assurer la fiabilité, la performance et la disponibilité de nos systèmes. Vos missions/ En tant qu’Ingénieur SRE, vous interviendrez sur l’ensemble du cycle de vie des infrastructures et aurez notamment pour missions : Administrer, maintenir et optimiser des systèmes Linux (Debian, RHEL, RockyLinux, Ubuntu) Garantir le maintien en condition opérationnelle (MCO) du système d’information Gérer et optimiser les plateformes d’ hébergement Web (Apache, Nginx, Traefik) Mettre en œuvre et maintenir les solutions de virtualisation et de conteneurisation (Docker Swarm, Portainer) Automatiser les déploiements et la gestion de configuration ( Puppet, Terraform, Ansible ) Mettre en place et exploiter les outils de supervision et monitoring (Nagios, Prometheus, Grafana, Minio, Thanos, OpenTelemetry) Assurer la centralisation et l’analyse des logs (ElasticSearch, Logstash, Kibana, Syslog-ng) Réaliser le diagnostic et la résolution d’incidents complexes Participer aux phases de POC et à l’évaluation de nouvelles solutions techniques Rédiger et maintenir la documentation technique Apporter un support technique aux utilisateurs sur les problématiques système Travailler en collaboration étroite avec l’équipe Infrastructure
Job Vacancy
DATA ENGINEERING sur KAFKA
Published on
Apache Kafka
API REST
Elasticsearch
3 years
40k-45k €
400-550 €
Ile-de-France, France
Hybrid
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Contractor job
Ingénieur Collecteur / Administrateur Outils Sécurisés – SIEM
Published on
Linux
Security Information Event Management (SIEM)
3 years
La Défense, Ile-de-France
Hybrid
Dans le cadre du renforcement de ses équipes, la Direction des Opérations recherche un Ingénieur Collecteur SIEM / Administrateur d’outils sécurisés pour intervenir au sein du Pôle Outils, CI/CD et Réseau . Le pôle regroupe plusieurs équipes spécialisées (industrialisation des services d’infrastructure, outils de sécurité et middleware, monitoring, réseaux et sécurité) et intervient sur des environnements critiques et fortement sécurisés. Objectifs de la mission Le prestataire interviendra principalement sur la gestion, l’optimisation et l’industrialisation des outils de collecte et de gestion des journaux , ainsi que sur l’amélioration continue de l’exploitation et du monitoring. 🛠️ Missions principales Revue de l’exploitabilité, de l’architecture et de l’efficience des solutions de gestion des logs Installation, paramétrage et sécurisation des collecteurs et middlewares Mise en place de bonnes pratiques en collaboration avec les équipes de la Direction des Opérations Administration des serveurs et des configurations Définition et déploiement de plans d’amélioration de l’exploitation et du monitoring Suivi des incidents d’exploitation, analyse des causes et mise en œuvre des actions correctives (référentiel ITIL) Intégration et paramétrage de nouveaux services Mise en production des correctifs et mises à jour après validation en préproduction Rédaction de la documentation d’exploitation et d’administration Contribution à l’industrialisation et à l’automatisation des tâches récurrentes Reporting régulier auprès du management et valorisation des charges et besoins Environnement technique Systèmes : Linux (certifications requises), AIX, Windows Outils et technologies : Rsyslog, Logstash, Auditbeat Solutions SIEM SSH, PKI, gestion des certificats Annuaires et authentification (LDAP, IDM) Sécurité systèmes et réseaux (durcissement, proxy, IPS/IDS, firewall) Scripting et automatisation : Shell, Python, Ansible Outils d’ordonnancement (TWS, Control-M) Méthodologies : ITIL , exploitation en environnements critiques et sécurisés
Job Vacancy
Ingénieur Devops (H/F)
Published on
Lille, Hauts-de-France
Experis recherche un Ingénieur DEVOPS à sur la métropole Lilloise pour l'un de ses clients: Intégré au sein des équipes infrastructure, le prestataire participera aux différents projets ainsi qu'au maintien en condition opérationnelle de la solution actuelle. Experis recherche un Ingénieur DEVOPS à sur la métropole Lilloise pour l'un de ses clients: Intégré au sein des équipes infrastructure, le prestataire participera aux différents projets ainsi qu'au maintien en condition opérationnelle de la solution actuelle. Aidé par l'équipe infrastructure de la solution actuelle, il participe aux tâches projets et au maintien opérationnel de l'infrastructure kubernetes. Ses tâches pourront couvrir les domaines suivants : Améliorer l'infrastructure as code ainsi que l'infrastructure elle-même (essentiellement kubernetes) Participer aux mises en production et au lifecycle des différentes briques de la plateforme (kubernetes, gravitee, terraform, etc) Améliorer le provisionning via terraform Travailler à l'élaboration de la stratégie de déploiement du logiciel (canary deployment, blue/green, etc ...) Notions de bench et tests de charge Participer au tuning de la solution et à l'optimisation de la plateforme, notamment en fonction des benchs Améliorer et maintenir le système de supervision Devenir référent sur nos usages des technologies Opensearch, Kibana, Logstash Maintenir les environnements (en équipe) pour viser un zéro défaut en production Automatiser les tâches récurrentes Surveiller la plate-forme Proposer des optimisations Challenger et valider le DRP Optimiser et maintenir des JVMs en production (dans un environnement conteneurisé) serait un plus Expérimentation, POC, et compte-rendu. Documenter / informer / signaler
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Taxes and rules invoicing an American company from UK
- Key Topics and Preparation Strategies for the Salesforce Data Architect Certification
- Advice on starting up as a freelance
- What are the main phases of Game Development?
- most effective way to design responsive web pages ?
- How do you choose a good app development agency
Jobs by city
Jobs by country
11 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k