Trouvez votre prochaine offre d’emploi ou de mission freelance Prometheus à Paris
Votre recherche renvoie 15 résultats.
Offre d'emploi
Consultant Observabilité
KLETA
Publiée le
Dynatrace
ELK
Grafana
3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Consultant Observabilité pour définir et industrialiser une stratégie d’observabilité cohérente sur des environnements complexes et critiques. Vous analyserez les dispositifs existants, identifierez les lacunes de visibilité et proposerez une trajectoire cible alignée avec les trois piliers de l’observabilité (logs, métriques, traces). Vous guiderez la mise en place de solutions modernes basées sur OpenTelemetry, Prometheus, Grafana, ELK ou équivalents, en veillant à leur intégration dans les pipelines CI/CD et les pratiques DevOps. Vous serez responsable de la définition des SLO, SLA et SLI, de la structuration de dashboards exploitables et de la mise en place d’alerting pertinent et actionnable. Vous travaillerez étroitement avec les équipes Cloud, DevOps et SRE pour améliorer la fiabilité, la détectabilité et la résilience des systèmes. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de standards et l’accompagnement des équipes dans l’adoption des meilleures pratiques d’observabilité.
Mission freelance
Développeur Python Grafana Prometheus
Cherry Pick
Publiée le
Grafana
Prometheus
Python
12 mois
480-530 €
Paris, France
Voici une fiche de poste structurée pour un profil Développeur Python / Observabilité (Grafana & Prometheus) . Ce type de profil est souvent à la croisée du développement Backend et de l'ingénierie SRE (Site Reliability Engineering). 📋 Fiche de Poste : Développeur Python & Observabilité Présentation de la mission En tant que Développeur Python spécialisé en observabilité, votre rôle sera de concevoir des solutions logicielles performantes tout en garantissant une visibilité totale sur l'état de santé et les performances de nos infrastructures. Vous ferez le pont entre le code applicatif et le monitoring opérationnel. 1. Missions Principales Développement Backend : Concevoir, développer et maintenir des API et des microservices robustes en Python (FastAPI, Flask ou Django). Instrumentation : Intégrer des bibliothèques client Prometheus dans les applications pour exposer des métriques métier et techniques personnalisées. Visualisation : Créer des dashboards Grafana avancés, intuitifs et pertinents pour les équipes techniques et produit. Automatisation : Développer des scripts d'automatisation pour le déploiement des agents de monitoring et la gestion des alertes ( AlertManager ). Optimisation : Analyser les goulots d'étranglement de performance et proposer des correctifs basés sur les données collectées.
Mission freelance
Ingénieur Monitoring & Tooling (ELK / Prometheus / Grafana)
JobiStart
Publiée le
Python
3 ans
400-550 €
Paris, France
Ingénieur Monitoring & Tooling (ELK / Prometheus / Grafana) Description du poste : Vous êtes responsable de la conception et du maintien en condition opérationnelle des plateformes de monitoring open-source et propriétaires. Votre rôle est de bâtir une vision 360° de l'infrastructure et des applications en intégrant des solutions telles que Prometheus pour les métriques, Grafana pour la visualisation et la stack ELK pour la centralisation des logs. Vous développez des exporteurs sur mesure, configurez les sondes de disponibilité et assurez l'interopérabilité entre les différents outils de surveillance. Vous travaillez sur l'industrialisation des déploiements des agents de monitoring et sur l'automatisation des remédiations (Self-healing). En collaboration avec les SRE, vous définissez les SLO/SLI (Service Level Objectives) et veillez à ce que chaque composant du système d'information soit auditable et surveillé en temps réel pour garantir la continuité des services financiers.
Offre premium
Mission freelance
DevOps Engineer / SRE (Expert OpenShift)
MEETSHAKE
Publiée le
DevOps
Gitlab
Grafana
6 mois
Paris, France
Au sein de l'équipe SRE, votre mission dépasse la simple maintenance : vous êtes l'architecte de la résilience. Vous intervenez sur des environnements Cloud hybrides à forte échelle avec un focus majeur sur l'écosystème Red Hat OpenShift . Fiabilisation : Définition et suivi des indicateurs critiques (SLI/SLO) et gestion des Error Budgets pour garantir une disponibilité optimale. Automatisation Totale : Industrialisation de l’infrastructure via Terraform et pilotage des déploiements en mode GitOps avec ArgoCD. Expertise Kubernetes : Administration avancée des clusters, gestion du cycle de vie des opérateurs, optimisation du SDN et du stockage persistant. Continuous Delivery : Évolution et sécurisation des pipelines GitLab CI pour fluidifier le passage en production des microservices.
Mission freelance
Administrateur systèmes Linux (Linux, Aix, windows server)
Cherry Pick
Publiée le
Administration linux
AIX (Advanced Interactive eXecutive)
Grafana
12 mois
500-550 €
Paris, France
Au sein d'un grand groupe du secteur de la protection sociale, vous rejoignez le service Exploitation du département Infrastructure. Dans un environnement technologique d'envergure (plus de 1 000 serveurs physiques et virtuels), vous évoluez au sein d'une équipe pluridisciplinaire garantissant la disponibilité des services pour 1 200 utilisateurs. L'infrastructure se caractérise par une forte mixité technologique, avec une dominante Linux (60%) , complétée par des environnements AIX (25%) et Windows (15%) . La mission s'inscrit dans une démarche d'amélioration continue et de modernisation des outils de production (DevOps, Observabilité). Missions : Sous la responsabilité du Responsable d'Exploitation, vous assurez le Maintien en Condition Opérationnelle (MCO) du Système d’Information. Vos activités se décomposent comme suit : Pilotage et Supervision Assurer la surveillance temps réel du SI via les outils d'hypervision. Prendre en charge les alertes, diagnostiquer les dysfonctionnements et appliquer les consignes de résolution. Administrer et optimiser la plateforme de supervision ( Prometheus / AlertManager / Grafana ). Gestion des Incidents et Changements (RUN) Traiter les incidents de niveaux 1 et 2 (enregistrement, analyse, résolution ou escalade). Réaliser les demandes de services (restaurations de données, reprises de traitements). Exécuter les déploiements standards et les changements en respectant les procédures établies. Automatisation et Ordonnancement Piloter, suivre et corriger les traitements ordonnancés (Flux batchs via Automator ). Contribuer à l'évolution des scripts d'automatisation et de l'outillage DevOps (Ansible, Docker). Qualité et Documentation Rédiger et mettre à jour les dossiers d'exploitation et les procédures techniques. Animer ou participer aux points incidents journaliers (Comités Techniques). Remonter les incohérences documentaires et proposer des axes d'optimisation (Process/Outils).
Offre d'emploi
Ingénieur DevOps / Infrastructure & Systèmes Senior – Innovation – France (H/F)
EASY PARTNER
Publiée le
Ansible
Bash
Docker
Paris, France
Contexte Entreprise française innovante spécialisée dans les solutions technologiques à forte valeur ajoutée, nous développons et intégrons une plateforme logicielle complexe destinée à des acteurs publics et privés. Dans le cadre de l’évolution majeure de notre plateforme SaaS (V2), nous recrutons un(e) Ingénieur(e) DevOps / Infrastructure & Systèmes Senior. Rattaché(e) à la direction technique et intégré(e) à l’équipe software, vous êtes garant(e) de la fiabilité, de la sécurité et de l’industrialisation de l’infrastructure (SaaS et déploiements clients on-premise / IaaS). Ce poste joue un rôle central dans la structuration long terme de la plateforme et dans la sécurisation des environnements clients. Missions Missions principales : Concevoir et maintenir les environnements Docker / Docker Compose Structurer les environnements dev / recette / prod / client Industrialiser les déploiements (CI/CD, images Docker, stratégies de release) Mettre en place une approche Infrastructure-as-Code (Ansible / Terraform) Concevoir et déployer les environnements IaaS / Cloud Définir les prérequis d’hébergement (CPU, RAM, stockage, sauvegardes, haute disponibilité) Déployer et maintenir une stack d’observabilité (monitoring, logs, alerting) Administrer et sécuriser des serveurs Linux Mettre en place des stratégies de sauvegarde, restauration et haute disponibilité Structurer les bonnes pratiques sécurité (hardening, gestion des accès, gestion des secrets) Missions annexes : Administrer les outils internes (GitLab self-hosted, runners, registry, bastion) Structurer les workflows (branches, versioning, pipelines) Rédiger la documentation d’exploitation et les runbooks Participer aux audits et à l’amélioration continue (RGPD, ISO 27001 à terme) Assurer un support technique niveau 2/3 sur les sujets infrastructure Collaborer étroitement avec les équipes backend, support et infrastructures clients Stack technique Compétences à maîtriser : Docker / Docker Compose Linux (Ubuntu / Debian) GitLab self-hosted (CI/CD, runners, registry) Observabilité : Prometheus, Grafana, Loki Réseau : VPN (IPsec / WireGuard), firewall, routage, DNS Reverse proxy & TLS : Nginx, Let’s Encrypt IaaS / Virtualisation (cloud privés ou publics) Automatisation : Bash, Ansible (Terraform apprécié) Gestion des secrets, logs/audit et bonnes pratiques sécurité
Offre d'emploi
EXPERT MIDDLEWARE - CLOUD - DEVOPS
HEEVOX
Publiée le
Azure DevOps
Bash
ELK
2 ans
55k-65k €
550-600 €
Paris, France
EXPERT MIDDLEWARE - CLOUD - DEVOPS Démarrage : ASAP Durée : 2 ans Localisation : Paris Télétravail : 50% Exploitation et Résilience : Assurer la stabilité, la disponibilité et la sécurité des applications en production. Gérer les incidents, organiser les analyses des causes et coordonner le déploiement de correctifs durables. Participer aux astreintes. Améliorer le monitoring et l’alerting. Support aux Projets & Environnements : Provisionner et administrer les différents environnements (Linux et Windows). Gérer les déploiements et assister les équipes de Devs tout au long du delivery. Définir, dimensionner et optimiser les architectures on-premise et cloud (OpenShift, GCP, AWS, Azure). Automatisation & Plateforme : Développer les scripts et outils d'automatisation (Python, Shell, PowerShell) Mettre en place les pipelines CI/CD et pratiques DevOps. Contribuer à la plateformization de l'ensemble du delivery. Ce que nous offrons : Exposition à des technologies de pointe et architecture à haute performance Formation continue sur les méthodologies modernes (SRE, Cloud, DevOps) Environnement stimulant au cœur des systèmes critiques Intégration dans une équipe expérimentée avec programme de mentoring Possibilités d'évolution vers des rôles d'expertise technique ou de coordination d'équipe
Mission freelance
Site Reliability Engineer
Codezys
Publiée le
Ansible
Azure
Git
12 mois
Paris, France
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Mission freelance
DevOps / SRE
MEETSHAKE
Publiée le
CI/CD
Cloud
Grafana
6 mois
Paris, France
Au sein de l’équipe Site Reliability Engineering (SRE) , vous serez responsable de la fiabilité, de la performance et de la scalabilité des plateformes Cloud de l’entreprise. Vous jouerez un rôle clé dans la conception, l’automatisation et l’exploitation des environnements de production, avec un focus particulier sur les plateformes OpenShift . Responsabilités principales Opérations & Fiabilité Assurer la stabilité , la résilience et la performance des environnements Cloud et OpenShift. Participer au déploiement , au monitoring , au troubleshooting et à l’ optimisation des applications en production. Contribuer à la mise en place et à l’amélioration de SLOs, SLIs et SLAs . Automatiser les opérations de production dans une logique Infrastructure as Code et GitOps . Engineering & Automatisation Développer et maintenir les pipelines CI/CD utilisant GitLab CI . Gérer l’infrastructure via Terraform , Helm , et des pratiques modernes de déploiement. Participer au design et à l’évolution de l’architecture Cloud (Public, Private, Hybrid). OpenShift & Kubernetes Administrer et opérer des clusters OpenShift (installation, upgrades, capacity planning, gestion des opérateurs, sécurité). Améliorer la fiabilité de la plateforme et accompagner les équipes de développement dans la bonne utilisation d’OpenShift. Gérer les problématiques réseau, stockage, logging et monitoring dans un environnement Kubernetes/ OpenShift. Collaboration & Culture SRE Travailler étroitement avec les équipes de développement, sécurité, infrastructure et produit. Documenter et partager les bonnes pratiques, dans une démarche d’amélioration continue.
Mission freelance
Des ingenieurs Devops sur Clermont Ferrand, Poitiers, Rouen, Strasbourg, Lille et Paris
Almatek
Publiée le
Ansible
Cloud
Cucumber
6 mois
Paris, France
Almatek recherche pour un de ses clients, des ingenieurs DEVOPS sur Clermont Ferrand, Poitiers, Rouen, Strasbourg, Lille et Paris Le candidat exercera les tâches suivantes : • Construction des environnments (Terraform) sur le cluster OpenStack • Déploiement automatisé des outils (Ansible) • Mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) • Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki, Promtail) • Échanges réguliers avec les équipes qui ont fait le développement Compétences attendues : • Requises : commandes système et réseau Linux, Cloud public ou privé, Ansible, Jenkins, Grafana • Souhaitables : Terraform, Prometheus, Openstack, Loki, Promtail, AirFlow • Appréciées : GitLab, Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP Leur besoin est d’accompagner les ingénieurs de production actuels dans leur montée en compétence sur les technologies OPS. Le candidat interviendra en full présentiel les 3 premiers mois, puis pourra prétendre à 1 ou 2 jours de télétravail max. Il travaillera en binôme avec les internes pour les coacher (leur montrer de façon pratique comment utiliser certaines technologies que le candidat maitrise). Il pourra par ailleurs prendre à sa charge certaines activités de BUILD ou de RUN au sein du Centre Ops. Il sera amené à participer au projet dès son démarrage et sera donc associé à la phase de définition de l'architecture. Le candidat devra apporter son expérience et cadrer le travail de ses collègues. Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises.
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Offre d'emploi
Architecte Kubernetes
KLETA
Publiée le
Git
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Architecte Kubernetes pour définir et piloter l’évolution de plateformes conteneurisées à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles plateformes basées sur Kubernetes en intégrant des composants clés tels que Istio/Linkerd, ArgoCD, Prometheus, Grafana, OpenTelemetry et des stratégies GitOps. Vous serez responsable des choix structurants en matière d’orchestration, de résilience, de sécurité (RBAC, mTLS, politiques réseau), de scalabilité et d’observabilité. Vous travaillerez étroitement avec les équipes Cloud, DevOps et SRE pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques cloud native et Kubernetes.
Offre d'emploi
Data Engineer Banque(F/H)
CELAD
Publiée le
45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Mission freelance
Ingénieur Observabilité / Elastic Stack (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous aimez les environnements techniques exigeants, les plateformes critiques et les stacks d'observabilité au coeur du SI ? Rejoignez une équipe experte et contribuez à l'exploitation, l'évolution et la sécurisation d'une plateforme Elastic stratégique, utilisée à grande échelle. Au sein d'un environnement moderne et agile, vous interviendrez sur l'ensemble du cycle de vie de la plateforme : du RUN à l'automatisation, en lien étroit avec les équipes produit et les équipes partenaires. Vos missions - Assurer le RUN / MCO de la stack Elasticsearch, Logstash, Kibana - Gérer les incidents P1 à P4 et garantir le respect des SLA - Piloter les montées de version, le patch management et les exigences de sécurité - Optimiser les performances, la capacité et la fiabilité de la plateforme - Automatiser les opérations via Ansible et du scripting Bash / Python - Participer aux rituels agiles (SAFe) et contribuer à la roadmap du service - Produire une documentation claire et assurer le transfert de compétences - Maîtrise confirmée de la stack Elastic (ELK) - Bonne connaissance de Grafana / Prometheus - Excellente pratique d'Ansible - Scripting Bash / Python - Environnements Kubernetes / OpenShift, Git - À l'aise dans des contextes critiques, structurés et collaboratifs - Anglais courant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
15 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois