Trouvez votre prochaine offre d’emploi ou de mission freelance Kibana
Votre recherche renvoie 26 résultats.
Mission freelance
Expert Elastic Cloud H/F
Publiée le
Elasticsearch
Kibana
Logstash
6 mois
700-820 €
Hauts-de-Seine, France
Télétravail partiel
Nous recherchons pour le compte de notre client un Expert Elastic Cloud H/F pour une mission en freelance ou portage salarial de plusieurs années à pourvoir dès que possible dans les Hauts-de-Seine (92). Notre client propose 2 jours de télétravail maximum par semaine. Vous intervenez sur la V3 d’une plateforme EDI très critique et par laquelle transitent tous les flux. Vos missions sont les suivantes : Design, implémentation et déploiement de la solution Elastic cloud : · Création des environnements Elastic cloud · Intégration des pipelines de log/métriques · Participation à la définition des dashboards Kibana, implémentation de ces derniers · Apport de votre expertise dans la maintenance de niveau 3/4, l’analyse des anomalies complexes, et la résolution des incidents critiques. · Automatisation des déploiements et backup · Gouvernance des environnements Elastic cloud : · Suivi des versions et gestion de la plateforme (recommandations, stratégie de migration, bugs produit, etc.). · Mise en conformité avec les contraintes de sécurité de notre client (droits sur les utilisateurs, réseau privé, …) · Optimisation de la plateforme et FinOps : performance, stockage, monitoring et suivi des coûts avec un capacity planning
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Offre d'emploi
Intégrateur de Solutions Informatiques (H/F)
Publiée le
Ansible
Dynatrace
Grafana
12 mois
35k-40k €
270-320 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼 Poste : Intégrateur de Solutions Informatiques 📍Lieu : Niort 🏠 Télétravail : 2 jours/semaine 👉 Contexte client : Rejoins un acteur majeur de l’assurance mutualiste , reconnu pour ses valeurs de solidarité et son engagement sociétal. Cette société accompagne plus de 3,5 millions de sociétaires en proposant des solutions d’assurance, de services financiers et d’assistance. Au sein de la Tribu Canaux et Flux , tu contribues à la fiabilité des solutions éditiques et à l’évolution des infrastructures critiques. En tant que Intégrateur de Solutions Informatiques , tu garantis la disponibilité, la performance et la sécurité des systèmes Linux et Windows, tout en participant à des projets stratégiques et à l’amélioration continue. Tu auras pour missions de : Exploiter et administrer les systèmes Linux et Windows. Mettre en place et optimiser l’observabilité (Dynatrace, Grafana, Prometheus, Kibana). Automatiser et industrialiser les déploiements (Ansible, scripts Shell). Participer aux mises en production dans le respect des normes MAIF. Assurer le support, résoudre les incidents et contribuer au maintien en condition opérationnelle. Mettre à jour la documentation technique et les dossiers d’architecture. Conseiller sur la performance, la robustesse et la sécurité des solutions. Stack technique : Linux, Windows, Ansible, Shell scripting, Dynatrace, Grafana, Prometheus, Kibana, CI/CD (GitHub, Jenkins), bonnes pratiques DevOps, observabilité, éditique (AFP).
Offre d'emploi
Consultant expérimenté en observabilité (OpenTelemetry / ElasticSearch)
Publiée le
Elasticsearch
ELK
Kibana
1 an
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
🏁 Contexte du besoin Dans le cadre du renforcement de son dispositif d’observabilité, notre client recherche un(e) spécialiste expérimenté(e) de l’écosystème ELK (Elasticsearch, Logstash, Kibana) et OpenTelemetry , disponible dès que possible. L’environnement d’observabilité est déjà en place ; la mission consiste à exploiter, enrichir et valoriser la donnée, notamment autour des sujets IAM , afin d’améliorer la supervision et la détection précoce des incidents. 🏡 Infos logistiques Démarrage : ASAP Lieu : le client est basé à Issy-Les-Moulineaux et propose 50% de télé-travail Durée : longue (contrat d'1 an renouvelable) Profil freelance / externalisé
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre d'emploi
Chef de projet - Déploiement Télécom
Publiée le
Ansible
Apache Airflow
Apache Spark
1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Offre d'emploi
Architecte Infrastructure / Expertise Kafka Elastic Logstash Kibana Beats Opensearch
Publiée le
Elasticsearch
Kibana
1 an
40k-45k €
400-630 €
Île-de-France, France
Télétravail partiel
Architecte Infrastructure / Architecte Infrastructure Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Technologies Principales • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) Technologies d'Automation • Ansible • Git/Bitbucket • Développement Python et REST APIs Environnement • Environnement anglophone
Offre d'emploi
Developpeur(se)Mulesoft Confirmé(e)
Publiée le
Apache Maven
API REST
Batch
1 an
Paris, France
Au sein de l'équipe intégration, vous participez à la conception, au développement et à l'évolution des flux et API au sein de la plateforme Mulesoft: Vos principales missions son les suivantes: • Comprendre l’environnement client (métier, informatique et projet). • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets. • Collaborer avec les équipes métier et projet à toutes les étapes du cycle de vie du projet. • Être force de proposition dans la conception des solutions techniques sur la plateforme MuleSoft. • Développer de nouveaux flux et API, maintenir et faire évoluer les existants. • Contribuer activement à l’amélioration continue et au bon fonctionnement de la plateforme MuleSoft. • Participer à l’analyse et à la résolution des incidents de production. • Appliquer et promouvoir les bonnes pratiques MuleSoft (conception, développement, sécurité, documentation). • Rédiger la documentation technique associée aux développements réalisés.
Offre d'emploi
Ingénieur Système et Réseau
Publiée le
Administration linux
Administration Windows
Azure Kubernetes Service (AKS)
6 mois
40k-60k €
400-500 €
Lille, Hauts-de-France
Vous serez en charge: Mettre en place, administrer et maintenir au quotidien les composants réseaux et systèmes de votre périmètre. Assurer le support de niveau 3 sur les incidents et demandes, en garantissant la résolution rapide et efficace. Veiller à la sécurité des infrastructures, en lien avec le SOC, et contribuer à la protection du système d’information. Superviser et tracer les événements survenus dans les environnements techniques afin d’assurer leur exploitation optimale. Analyser les besoins des utilisateurs, proposer des solutions adaptées et les mettre en œuvre. Rédiger et maintenir la documentation technique (DAT, procédures, configurations) pour assurer la continuité et la capitalisation des connaissances. Réaliser une veille technologique active et être force de proposition pour l’évolution et l’amélioration continue du SI
Offre d'emploi
Développeur Java H/F
Publiée le
Agile Scrum
Docker
Elasticsearch
1 an
70k-75k €
400-550 €
Luxembourg
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Développeur Java H/F sur le secteur du Luxembourg ville pour une mission débutant dès que possible. Vos missions : - Spécifications techniques - Développement et assistance à la conception de frameworks et d'applications Java - Test unitaires - Soutien à l’amélioration continue - ITIL - Procédure CM/RM - Release Management Nous vous offrons : un package salarial attrayant, assorti de nombreux avantages complémentaires (ticket restaurant, mutuelle...), un environnement de travail professionnel et stimulant. Si vous vous reconnaissez dans ce descriptif, ce poste est fait pour vous alors n'hésitez pas à postuler.
Mission freelance
Développeur Back End
Publiée le
Azure DevOps
Dynatrace
Elasticsearch
1 an
300-470 €
Paris, France
Télétravail partiel
Contexte : Le concentrateur DSN IP est une plateforme faisant le lien entre les portails de déclaration pour les entreprises et les institutions de prévoyance de ces entreprises. Elle est constituée : de webservices exposés à l'extérieur permettant aux partenaires de déposer des déclarations, ainsi que des comptes rendus métier de batchs lancés en mode daemon (scheduling avec Quartz) ou standards pour la gestion des statistiques et de la supervision d'une IHM page web (angular) d'interrogation sur une base de données déportée alimentée au fil de l'eau (ELK) Le prestataire interviendra sur le suivi de production du concentrateur DSN IP ainsi que de ses outils périphériques La prestation consiste à : Assurer le suivi de l'activité de production du concentrateur SNGI, du concentrateur DSN et de son IHM (Outil du gestionnaire), Participer à l'élaboration d'outils pour y parvenir, Traiter des demandes de travaux : justificatifs d'audit, statistiques, désarchivage / ré-émission d'objets produits, ... Traiter les incidents de production et contribuer à la résolution de ceux des partenaires distants Suivre les mises en production et accompagner l'orchestration des traitements S'intégrer dans une démarche DEVOPS : Comprendre et proposer l'automatisation de process réccurents Les livrables attendus sont : POC et développements associés, Documentation des actions réalisées, Comptes-rendus d'activités, Participation aux différentes réunions nécessaires à l’avancement des travaux.
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Mission freelance
Consultant ELK (h/f)
Publiée le
1 mois
111 €
92400, Saint-Germain-en-Laye, Île-de-France
Introduction & Résumé: Nous recherchons un consultant ELK sénior pour une mission en remote, avec des déplacements occasionnels. Le candidat idéal doit posséder une expertise poussée dans l'utilisation des composants de la chaîne ELK, Démarrage ASAP possible Responsabilités Principales: Le consultant sera chargé de la mise en place des solutions ELK en respectant les meilleures pratiques. Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elasticsearch. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utiliser Git pour la gestion des configurations Logstash et Filebeat. Déployer automatiquement via AWX, en respectant les procédures et les bonnes pratiques. Exigences Clés: Maîtrise des composants de la chaîne ELK : Filebeat, Kafka, Logstash, Elasticsearch, Kibana. Expérience dans la mise en œuvre de pipelines de logs. Connaissance des formats de logs et des bonnes pratiques d’ingestion. Maîtrise de Git pour la gestion des configurations techniques. Expérience avec AWX ou Ansible pour le déploiement automatisé. Connaissance des environnements Linux. Autonomie, rigueur et capacité à travailler en transverse avec plusieurs équipes. Capacité à rédiger une documentation claire et structurée. Autres Détails: Cette mission se déroulera en remote, avec des déplacements occasionnels prévus. Le consultant travaillera dans un environnement dynamique et innovant.
Offre d'emploi
Administrateur Solutions de Sécurité (F/H)
Publiée le
36k-50k €
Nantes, Pays de la Loire
Administrateur Solutions de Sécurité (F/H) - Nantes Nous recherchons un Administrateur Sécurité (F/H) pour assurer l'exploitation et l'administration des plateformes transverses : infrastructures d'administration (SERBERE, Back Office, TELEXX), Plateforme de Services Mutualisée et solution d'accès externe (SASIA), de notre client à Nantes. 🔐 Vos missions Assurer l'exploitation quotidienne des plateformes de sécurité et veiller à leur disponibilité, performance et conformité. Administrer les firewalls, VPN et solutions d'accès (Fortigate, Juniper SRX, Stormshield, The Green Bow). Garantir la qualité des services, la fiabilité des données et la continuité de service. Gérer les incidents N1/N2 via les outils internes (GDI / GDP). Maintenir les référentiels à jour et contribuer à l'amélioration continue des environnements. Participer à l'automatisation (API, Ansible, Python) et au suivi via Splunk / Kibana.
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
26 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois