Trouvez votre prochaine offre d’emploi ou de mission freelance Logstash

Votre recherche renvoie 6 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Administrateur des systèmes et de la sécurité

Phaidon London- Glocomms
Publiée le
Logstash
Red Hat Linux
Splunk

12 mois
450-650 €
Paris, France

Administrateur des systèmes et de la sécurité • Paris OU Toulouse, France • 50 % de travail sur site – 2/3 jours par semaine • Parlant français et anglais (langue de travail français) • Date de début : 20/05/2024 – Peut être flexible • Contrat jusqu'au 31/12/2024 (Prolongations à suivre) • TJM : 450-650€ Détails du client • Notre client est l'un des plus grands groupes français et européens, il compte près de 100 000 collaborateurs principalement en Europe répartis en France, au Royaume-Uni, en Allemagne, en Italie et au Portugal avec d'autres équipes réparties en Amérique du Nord et en Asie. • Compte tenu de l'augmentation de la demande de projets, ils cherchent à renforcer leur équipe en ajoutant un administrateur de systèmes et de sécurité afin de réduire la charge de travail de l'équipe actuelle. • Le client offre une opportunité fantastique pour un engagement à long terme et la chance non seulement de travailler sur les technologies les plus récentes, mais aussi la chance d'être l'un des premiers sur le marché à toucher et à intégrer les nouvelles versions ! • Glocomms travaille avec le client depuis près de 2 ans et nous avons été responsables des recrutements pour des projets clés et critiques dans l'entreprise pendant cette période. Détails du poste Administrateur des systèmes et de la sécurité • Responsabilités principales : Maintenance et amélioration de l'infrastructure actuelle, effectuer des tâches administratives sur les composants de l'infrastructure Splunk (installation, configuration, mises à jour et mise à jour de la documentation), répondre aux besoins et incidents des utilisateurs, mener des POC dans le cadre de leurs plans d'amélioration continue. • Tech Stack : Splunk (version 8.0 et suivantes) pour l'intégration de données, RedHat Linux, Logstash, Cisco Networks. • Travaillant aux côtés des équipes d'architecture et d'ingénierie, l'équipe compte globalement près de 30 personnes mais vous collaborerez quotidiennement avec 5 à 10 autres administrateurs. • Compte tenu du caractère international de l'entreprise, un niveau d'anglais fonctionnel est requis mais au quotidien les collègues sont francophones. • Excellente opportunité pour des extensions et différents projets car ils cherchent constamment à apporter des améliorations et des mises à niveau. • Aucun certificat spécifique n'est requis, mais toute certification Splunk, Linux ou Cyber ​​Security pertinente prendra certainement en charge votre application.

Freelance
CDI

Offre d'emploi
Consultant observabilité / Ingénieur ELK H/F

AMAGO EXPERTISE
Publiée le
Azure
Cloud
Elasticsearch

24 mois
10k-55k €
Hauts-de-Seine, France

Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une prestation de longue durée : Consultant observabilité / Ingénieur ELK H/F Vous aurez pour missions : Rattaché(e) à une équipe observabilité -Concevoir et implémenter des solutions d'intégration de données (ETL) pour améliorer le service d'observabilité (données en temps réel). -Développer et et optimiser la plateforme d'observabilité. -Collecter des données de sources diverses et modéliser ces données pour en simplifier la visualisation et l'analyse.

Freelance

Mission freelance
Ingénieur Système Middleware sur les solutions OpenSearch Sophia Antipolis

WorldWide People
Publiée le
Middleware

12 mois
310-390 €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Ingénieur Système Middleware sur les solutions OpenSearch Sophia Antipolis Description de la Mission Compétences techniques demandées o Expert sur OpenSearch dans un contexte de déploiement sur une solution Kubernetes, o Connaissance sur la mise en œuvre de l’operator Opensearch o Connaissance de la solution ElasticSearch actuellement en place o Expert sur les différents outils de collecte de log (Fluentd/FluentBit/Logstash) pour tous types de sources (équipements physiques, serveurs Linux/Window, container Kubernetes, …) o Expert sur Rsyslog dans un contexte de déploiement automatisé sur un environnement linux distribué o Accompagnement des utilisateurs de la solution pour optimiser la valeur des données collectées et des rapports construits o Gestion des versions avec GIT voir la CI GitLab pour les évolutions d'industrialisation o Programmation avancée Shell et optionnellement Perl o Travail dans un contexte de distance de type Télétravail ou assimilé o Autonomie o Esprit d’initiative Le collaborateur intègrera l’équipe en charge de la mise en place de la solution « Puits de logs ». Cette solution collecte l’ensemble des logs techniques émis par les différents composants de notre SI, assure leur conservation court et long terme ainsi que leur mise à disposition aux différents outils d’analyse consommateurs de ces logs. Nous recherchons un Ingénieur Système Middleware sur les solutions OpenSearch, fluentd/fluentBit/logstash et Rsyslog. Nous attendons un profil confirmé qui nous accompagnera sur l’implémentation d’une solution de Centralisation des logs techniques. Une expertise sur la gestion de la vie des données ainsi que sur une utilisation avancée de la solution Opensearch pour l’exploration des données afin d’accompagner nos différents utilisateurs dans leur besoin métier serait appréciée. Activités à réaliser o Expertise autour des composants OpenSearch et de leur déploiement et configuration sur des environnements Kubernetes o Expertise autour des chaines d’alimentation Fluentd/FluentBit/logstash o Expertise autour du composant Rsyslog o Support et accompagnement sur le produit aux diverses équipes (Equipe de développement, intégration, production, utilisateurs de la solution) en s’adaptant aux attentes de chaque public.

Freelance

Mission freelance
Data Scientiste ( Configuration manager logiciel , Interact software, métrologie et data ) (h/f)

emagine Consulting SARL
Publiée le

3 ans
500-530 €
France

emagine recherche un (e) Data Scientiste ( métrologie et data ) pour l’un de ses clients finaux Lieu : Chartres Durée : 2-3 ans 3 Jours sur Chartres et 2 jours de télétravail par semaine Mission : Travailler sur un environnement : Multisources On prem/On Line Compétences : Power BI/ PYTHON/ JAVA/ SQL/ Elasticsearch, Kibana, Beats et Logstash ( la Suite ELK) Configuration manager de Microsoft Interact pour les outils de métrologie Environnement 365 est un plus Equipe: 8 Internes et 4 Externes. Si cette mission vous correspond et vous intéresse, merci de m’envoyer votre CV ou un SMS à 6 71 07 67 15

Freelance

Mission freelance
Développeur backend Data (Observabilité et Monitoring) H/F

LeHibou
Publiée le
Python

9 mois
500-650 €
Levallois-Perret, Île-de-France

Notre client dans le secteur Luxe recherche un/une Développeur backend Data (Observabilité et Monitoring) H/F Description de la mission: Le client est un acteur majeur du secteur de la beauté et du luxe. Contexte de la mission : Le client recherche un développeur backend Data event pour renforcer son équipe d'observabilité. Il/elle possédera une expertise technique approfondie en développement Backend au sein d'un écosystème Azure sur une architecture orientée évènement. Objectifs de la prestation : - Concevoir et implémenter des solutions d'intégration et de transformation de données (ETL) pour améliorer le service d'observabilité (évènements temps réel) - Collaborer activement au développement et à l'optimisation de notre plateforme d'observabilité. - Collecter des données de sources diverses et modéliser ces données pour en simplifier la visualisation et l'analyse. Compétences techniques requises : Technologies Backend : - ElasticSearch ET Logstash (expertise obligatoire) - SQL (expertise obligatoire) - Python (expertise obligatoire) - Maîtrise de divers langages de codage orientées objets, scripting, et des API REST & SOAP, etc. - Compétences avancées en gestion d'évènement Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics) - Connaissances avancées dans les architectures orientées événements Architecture et gestion des données : - Systèmes d'exploitation : Linux, Windows - Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics, etc.) - Utilisation de Github Compétences linguistiques : - Maîtrise du français (indispensable) - Anglais : niveau intermédiaire requis Compétences / Qualités indispensables : SQL, python, GITHUB, logstash, API rest et SOAP, Compétences avancées en gestion d'évènement Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics), architecture, systèmes linux/windows Compétences / Qualités qui seraient un + : anglais Informations concernant le télétravail : 2 jours pas semaine

Freelance

Mission freelance
Tech Lead MLOPS (H/F)

DCS EASYWARE
Publiée le

Paris, France

Nous renforçons nos équipes avec un Tech Lead MLOPS (H/F) pour une mission basée à Paris (12eme). Allez, on vous en dit plus... Nous recherchons aujourd'hui un Tech Lead MLOPS pour apporter son expertise et son feedback terrain pour faire évoluer l'offre MLOPS actuelle et contribuer à la faire connaître des équipes pour favoriser leur appropriation. Votre rôle, en quelques mots : définir les solutions techniques ; participer à la construction de la roadmap des offres MLOPS et l'évolution des produits en place ; être garant des solutions, de la conception technique, de la qualité fonctionnelle des développements (Homogénéise l'ensemble des développements..) et des livraisons ; être référent de l'équipe pour le design d'application en adressant toutes les thématiques requises (technologique, architecturale, applicative, fonctionnelle, urbanisme, performance, etc.) En tant que Lead Tech MLOps au sein de la DSI métier, vous intervenez dans différents domaines d'expertise : la Direction technique Décliner le cadre d'Architecture d'Entreprise (processus, normes, patterns ...) et contribuer à son évolution Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe Mettre en place l'outillage Data Science et MLOPS et identifier les patterns et normes pour un usage par l'ensemble des acteurs métier Diriger l'élaboration et la mise en oeuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML Maitrise les objectifs visés par le cadre d'Architecture d'Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Et la gestion d'équipe / Collaboration : Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoinResponsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...). Et si on parlait de vous... Maîtrise des frameworks ML (Tensorflow, PyTorch, MLFlow, Kubeflow, Airflow, Kubernetes, docker, ...)Maîtrise d'écosystème Data et la chaîne de valeur du traitement de la donnée : Hadoop ; Streaming : Kafka ; Search : ElasticSearch, logstash, Kibana ; DevOps : GitLab, Jenkins, NexusMaîtrise des principaux langages de développement (Bash, Python, Scala, SQL, ...)Compétences solides et maîtrise des concepts infra (système, réseaux, sécurité, stockage, supervision...)Connaissance des outils de versionning de modèles IAConnaissance des offres Cloud Datascience : AWS, GCP Vous avez la double casquette Data Scientist / DevOps. Vous avez de bonnes compétences en communication, management et en gestion de projet. Vous savez prendre part au développement de la vision produit en apportant une expertise et perspective technique. Enfin, vous savez être impliqué dans la phase de conception et être capable de valider techniquement la faisabilité. Information complémentaire : Langue de travail Français et Anglais (écrit et oral). Notre processus de recrutement : En 4 étapes ! Tout simplement 1. Dans un premier temps, vous échangerez avec l'un/e d'entre nous 2. Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien sur site ou Teams 3. Pour finir, discutez métiers avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Scala Elasticsearch Kafka Logstash Kibana Hadoop Nexus Jenkins Kubernetes Docker GCP AWS Airflow Pytorch SQL Tensorflow Python MLFlow Kubeflow

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous