Trouvez votre prochaine offre d’emploi ou de mission freelance Kibana
Votre recherche renvoie 23 résultats.
Mission freelance
Responsable Delivery Service
Publiée le
API
Kibana
oauth
3 ans
400-500 €
Île-de-France, France
Télétravail partiel
Conception d’évolution du système d’information · Gérer les demandes, les prioriser et les planifier en collaboration avec le Responsable de Domaine. · Participer aux cadrages des projets d’adaptation et d’évolution du SI. · Suivre les roadmaps éditeurs, en analyser les impacts avec les chargés d’applications. · Assurer les comités de pilotage périodiques avec les éditeurs. · Contribuer à la veille technologique et fonctionnelle. Mise en œuvre du système d’information · Conduire les évolutions depuis la conception jusqu'à la mise en service régulier · S'assurer de la bonne réalisation (temps, qualité et budgets) de l'ensemble des activités liées à ces évolutions · Valider les SFDs et SFEs produites par les chargés d’application et les assister dans la rédaction si nécessaire · Contribuer à la stratégie d’intégration des évolutions et projets · Contribuer à la stratégie de recette des évolutions et projets. · Définir, en concertation avec le métier, les plans de tests fonctionnels unitaires et de bout en bout nécessaires à la recette · S’assurer du pilotage des livraisons de corrections en cas d’anomalies détectées · Elaborer le cahier des charges dans le cas de recherche de progiciel du marché pour répondre aux besoins d’informatisation de services métier Exploitation du système d’information · Garantir l’atteinte des niveaux de service convenus avec les métiers (SLA). · Superviser la disponibilité et la performance des applications. · Suivre la gestion des incidents et coordonner les plans d’actions. · Déclencher la gestion de crise si nécessaire. · Assurer la supervision et la météo des services. Qualité du Système d’Information Garantir la qualité du SI à travers une c ouverture fonctionnelle complète, une utilisabilité optimale, des performances maîtrisées, une exploitabilité et une maintenabilité pérennes, ainsi qu’un support efficace et une conformité totale aux exigences de sécurité, de confidentialité et de légalité : · Garantir le maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité du service métier. · Tenir une documentation complète et à jour de son service métier · Suivre les indicateurs de performances des applications et les communiquer à la direction métier · Apporter son expertise dans le cadre de la résolution d’incidents (dans le respect du contrat de services et du Plan Qualité). · Assurer de la pérennité des applications en collaboration avec les chargés d’applications, notamment par la mise en œuvre d’évolutions permettant d’éviter l’obsolescence · Etablir et contrôler les règles de fonctionnement et d’utilisation des applications
Offre d'emploi
Ingénieur de Production H/F
Publiée le
Grafana
IBM Instana
Kibana
1 an
36k-42k €
300-340 €
Nantes, Pays de la Loire
Nous recherchons pour l'un de nos clients un Ingénieur de Production H/F pour une mission à pourvoir dès que possible sur le secteur de Nantes. Vous êtes en charge l'amélioration continue des processus, méthodes et outils de Production ainsi que le suivi du respect de leur bonne application. Vous analysez les événements de Production pour en extraire des tendances, détecter des signaux faibles et des plans d'amélioration continue. Dans une démarche Services, vous accompagnez les équipes pour une maitrise de la QoS au juste niveau d'excellence. Vos missions : • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins
Mission freelance
Consultant ELK
Publiée le
Ansible
Apache Kafka
Kibana
3 ans
Île-de-France, France
Télétravail 100%
Contexte de la mission Le périmètre concerné couvre la gestion des flux de logs applicatifs et techniques au sein de notre infrastructure. Nous utilisons une chaîne de traitement basée sur les technologies Filebeat, Kafka, Logstash, Elasticsearch et Kibana. Nous avons besoin d’un renfort opérationnel capable de prendre en charge ces demandes de manière autonome, depuis la réception du besoin jusqu’à la mise en production. Détails de la prestation attendue La prestation consistera à : Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elastics. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utilisation de Git pour la gestion des configurations Logstash et Filebeat. Déploiement automatisé via AWX, en respectant les procédures et les bonnes pratiques.
Offre d'emploi
Data Engineer – Elastic Stack Expert
Publiée le
Apache Kafka
ELK
Intégration
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Offre d'emploi
Ingénieur de Production / Production Engineer
Publiée le
Apache
Grafana
Kibana
3 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Contexte Au sein de la Direction de Production , la/le Run Process Manager est responsable de la bonne mise en application des processus de change & incident. Pour un SI toujours plus performant et une Qualité de Service au plus haut, la/le Run Process Manager pilote les incidents majeurs transverses. Description L'ingénieur Suivi Prod est à la fois vigie de la Production en grand et responsable des processus régaliens qui font vivre cette Production (Change, Incident, Pilotage, Amélioration Continue…). Il a en charge l'amélioration continue des processus, méthodes et outils de Production ainsi que le suivi du respect de leur bonne application. Il analyse les événements de Production pour en extraire des tendances, détecter des signaux faibles et des plans d'amélioration continue. Dans une démarche Services, il accompagne les équipes pour une maitrise de la QoS au juste niveau d'excellence.
Mission freelance
Expert Elastic Cloud H/F
Publiée le
Elasticsearch
Kibana
Logstash
6 mois
700-820 €
Hauts-de-Seine, France
Télétravail partiel
Nous recherchons pour le compte de notre client un Expert Elastic Cloud H/F pour une mission en freelance ou portage salarial de plusieurs années à pourvoir dès que possible dans les Hauts-de-Seine (92). Notre client propose 2 jours de télétravail maximum par semaine. Vous intervenez sur la V3 d’une plateforme EDI très critique et par laquelle transitent tous les flux. Vos missions sont les suivantes : Design, implémentation et déploiement de la solution Elastic cloud : · Création des environnements Elastic cloud · Intégration des pipelines de log/métriques · Participation à la définition des dashboards Kibana, implémentation de ces derniers · Apport de votre expertise dans la maintenance de niveau 3/4, l’analyse des anomalies complexes, et la résolution des incidents critiques. · Automatisation des déploiements et backup · Gouvernance des environnements Elastic cloud : · Suivi des versions et gestion de la plateforme (recommandations, stratégie de migration, bugs produit, etc.). · Mise en conformité avec les contraintes de sécurité de notre client (droits sur les utilisateurs, réseau privé, …) · Optimisation de la plateforme et FinOps : performance, stockage, monitoring et suivi des coûts avec un capacity planning
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Offre d'emploi
Intégrateur de Solutions Informatiques (H/F)
Publiée le
Ansible
Dynatrace
Grafana
12 mois
35k-40k €
270-320 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼 Poste : Intégrateur de Solutions Informatiques 📍Lieu : Niort 🏠 Télétravail : 2 jours/semaine 👉 Contexte client : Rejoins un acteur majeur de l’assurance mutualiste , reconnu pour ses valeurs de solidarité et son engagement sociétal. Cette société accompagne plus de 3,5 millions de sociétaires en proposant des solutions d’assurance, de services financiers et d’assistance. Au sein de la Tribu Canaux et Flux , tu contribues à la fiabilité des solutions éditiques et à l’évolution des infrastructures critiques. En tant que Intégrateur de Solutions Informatiques , tu garantis la disponibilité, la performance et la sécurité des systèmes Linux et Windows, tout en participant à des projets stratégiques et à l’amélioration continue. Tu auras pour missions de : Exploiter et administrer les systèmes Linux et Windows. Mettre en place et optimiser l’observabilité (Dynatrace, Grafana, Prometheus, Kibana). Automatiser et industrialiser les déploiements (Ansible, scripts Shell). Participer aux mises en production dans le respect des normes MAIF. Assurer le support, résoudre les incidents et contribuer au maintien en condition opérationnelle. Mettre à jour la documentation technique et les dossiers d’architecture. Conseiller sur la performance, la robustesse et la sécurité des solutions. Stack technique : Linux, Windows, Ansible, Shell scripting, Dynatrace, Grafana, Prometheus, Kibana, CI/CD (GitHub, Jenkins), bonnes pratiques DevOps, observabilité, éditique (AFP).
Mission freelance
Développeur Backend (Kotlin – Spring Boot – AWS)
Publiée le
AWS Cloud
Datadog
DevOps
3 mois
Longpont-sur-Orge, Île-de-France
Télétravail partiel
Squad : 1 x Senior et 3 x mid/junior Contexte : Dans le cadre de la création d’un nouvel outil backend cloud-native, nous constituons une squad de 4 développeurs backend chargée de concevoir, développer et déployer une plateforme scalable et observable, intégrée à l’écosystème AWS. L’objectif est de livrer une première version robuste en 3 à 4 mois , avec des standards élevés de qualité, sécurité et maintenabilité. Vous intervenez au soin d’une équipe comportant un architecte, un devOps et un PO. Conception & développement Concevoir et développer un orchestrateur et des APIs backend en Java 21 / Kotlin avec Spring Boot Implémenter une architecture cloud-native orientée microservices Développer et maintenir des services AWS Serverless (Lambda) en TypeScript, Python ou Go Gérer la persistance des données via AWS RDS (modélisation, performances, sécurité) Participer à la mise en place des flux ETL via AWS Glue Cloud & infrastructure Déployer et exploiter les applications sur un cluster Kubernetes Configurer et maintenir les pipelines CI/CD via GitLab Participer aux choix d’architecture (scalabilité, résilience, coûts) Observabilité & reporting Mettre en place la collecte et l’analyse des logs via ELK (Elasticsearch, Logstash, Kibana) Intégrer et exploiter Datadog pour le monitoring et l’alerting Contribuer aux dashboards de suivi et de reporting Qualité & collaboration Écrire du code propre, testé (unit tests) et documenté Participer aux revues de code et aux décisions techniques Documenter les choix techniques et fonctionnels dans Confluence Travailler en méthodologie agile (Scrum / Kanban) avec Jira Spécifique Senior dev : Excellente communication orale / verbale afin d’échanger avec les parties prenantes. Date Démarrage : dès que possible Durée mission : 3 mois renouvelable - Pas d’astreinte
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Tech Lead WebView / Cross-Platform
Publiée le
Angular
AWS Cloud
Azure
12 mois
400-570 €
Paris, France
Télétravail partiel
Objectif : Prendre le leadership technique sur la stack WebView – composant critique reliant Web & Mobile – et piloter les sujets hybrides au sein de l’équipe Cross-Platform Core. Le départ d’un expert interne nécessite l’arrivée d’un consultant senior capable de : comprendre en profondeur les interactions Web ↔ Mobile piloter la stratégie WebView (performances, sécurité, évolutions) soutenir les équipes Web, Mobile et Produit dans leurs intégrations hybrides Responsabilités principales 1. Tech Leadership WebView Être la référence interne sur WebView (iOS / Android). Définir les bonnes pratiques d’intégration, les bridges, les guidelines de performance. Faire évoluer la stack WebView selon les usages Produit et Mobile. 2. Développement & Architecture Contribuer aussi bien sur le Web (TypeScript) que sur le Mobile natif (Swift / Kotlin). Concevoir des architectures robustes multi-environnements. Résoudre des sujets critiques : performance, sécurité, stabilité, compatibilité. 3. Rôle transverse Travailler étroitement avec Web, Mobile, Backend, Produit. Faciliter la montée en compétence via mentoring, documentation, ateliers. Participer aux décisions techniques cross-platform.
Offre d'emploi
Chef de projet - Déploiement Télécom
Publiée le
Ansible
Apache Airflow
Apache Spark
1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Offre d'emploi
Developpeur(se)Mulesoft Confirmé(e)
Publiée le
Apache Maven
API REST
Batch
1 an
Paris, France
Au sein de l'équipe intégration, vous participez à la conception, au développement et à l'évolution des flux et API au sein de la plateforme Mulesoft: Vos principales missions son les suivantes: • Comprendre l’environnement client (métier, informatique et projet). • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets. • Collaborer avec les équipes métier et projet à toutes les étapes du cycle de vie du projet. • Être force de proposition dans la conception des solutions techniques sur la plateforme MuleSoft. • Développer de nouveaux flux et API, maintenir et faire évoluer les existants. • Contribuer activement à l’amélioration continue et au bon fonctionnement de la plateforme MuleSoft. • Participer à l’analyse et à la résolution des incidents de production. • Appliquer et promouvoir les bonnes pratiques MuleSoft (conception, développement, sécurité, documentation). • Rédiger la documentation technique associée aux développements réalisés.
Offre d'emploi
Développeur Java H/F
Publiée le
Agile Scrum
Docker
Elasticsearch
1 an
70k-75k €
400-550 €
Luxembourg
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Développeur Java H/F sur le secteur du Luxembourg ville pour une mission débutant dès que possible. Vos missions : - Spécifications techniques - Développement et assistance à la conception de frameworks et d'applications Java - Test unitaires - Soutien à l’amélioration continue - ITIL - Procédure CM/RM - Release Management Nous vous offrons : un package salarial attrayant, assorti de nombreux avantages complémentaires (ticket restaurant, mutuelle...), un environnement de travail professionnel et stimulant. Si vous vous reconnaissez dans ce descriptif, ce poste est fait pour vous alors n'hésitez pas à postuler.
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Contrat de prestation ESN
- micro entreprise avant validation ARE
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Credit immobilier et transformation de SASU IS à EURL IS
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
23 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois