Trouvez votre prochaine offre d’emploi ou de mission freelance Clustering à Paris
Votre recherche renvoie 16 résultats.
Offre d'emploi
DevOps / Platform Engineer - Kubernetes
KLETA
Publiée le
Kubernetes
Linux
Terraform
3 ans
Paris, France
Dans le cadre d’un programme de modernisation des plateformes internes, nous recherchons un DevOps / Platform Engineer pour concevoir, déployer et exploiter une plateforme Kubernetes on-premise. Vous interviendrez sur la mise en place d’un cluster Kubernetes sécurisé et optimisé, basé sur Talos Linux, en intégrant les exigences de résilience, de sécurité et de performance. Vous serez également impliqué dans la gestion et la maintenance de l’infrastructure physique du datacenter, ainsi que dans la supervision et l’exploitation des applicatifs métiers en production. Vous participerez à la structuration des pratiques d’exploitation, à la rédaction d’une documentation technique détaillée et à l’amélioration continue de la plateforme. Votre rôle sera central dans la fiabilisation des environnements conteneurisés et leur exploitation au quotidien.
Offre d'emploi
Ingénieur Systèmes Linux (H/F)
Linkup Partner
Publiée le
Administration linux
1 an
55k-65k €
450-550 €
Paris, France
En tant qu’ Ingénieur Système Linux Senior , vous êtes garant de la stabilité, de la sécurité et de l’évolution des infrastructures systèmes. Vous intervenez sur des environnements critiques, hybrides (Cloud & Bare Metal), dans un contexte exigeant et structuré (ISO27001). Vous êtes capable de prendre de la hauteur , d’avoir une vision globale des architectures et d’être force de proposition sur les choix techniques et stratégiques. Responsabilités principales Administration et maintien en conditions opérationnelles des serveurs Linux Gestion d’infrastructures hybrides : Cloud (GCP) & Bare Metal Conception, mise en œuvre et tests de PRA / PCA Gestion et optimisation des clusters Proxmox Automatisation des processus via scripting (Shell, Python, Ruby) Participation aux audits et maintien de la conformité ISO27001 Gestion des incidents critiques (niveau 3) Contribution aux décisions d’architecture et aux roadmaps techniques Documentation technique et procédures d’exploitation Collaboration avec des équipes internationales (anglais requis) Environnement technique Linux (administration avancée, tuning, troubleshooting) Proxmox VE (virtualisation, clustering, haute disponibilité) GCP (Google Cloud Platform) – environnements Cloud Infrastructures Bare Metal Scripting Shell (Bash) Python Ruby Environnement certifié ISO27001 Mise en œuvre et gestion de PRA / PCA
Offre d'emploi
Expert Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre de l’exploitation d’une plateforme Kafka parmi les plus volumineuses, nous recherchons un Expert Kafka pour assurer le build, le run et l’évolution continue de l’infrastructure de streaming. Vous interviendrez sur la gestion opérationnelle de clusters Kafka et Confluent Cloud à grande échelle, incluant des dizaines de clusters en production, plusieurs centaines d’instances et des dizaines de milliers de topics et partitions. Vous serez responsable de la performance, de la disponibilité et de la supervision de la plateforme, ainsi que de la gestion des connecteurs Kafka Connect et des flux temps réel à très fort débit. Vous participerez activement aux activités N3 et N4, en lien étroit avec le support éditeur et les équipes d’expertise, et contribuerez à la résolution d’incidents complexes. Vous interviendrez également sur l’industrialisation des déploiements et l’optimisation des infrastructures sous-jacentes (CPU, mémoire, stockage), dans une logique d’amélioration continue.
Mission freelance
Développeur(euse) Expert(e) - Java 8 à 11 et Migration Elasticsearch
PROPULSE IT
Publiée le
Elasticsearch
Java
Migration
24 mois
300-600 €
Paris, France
Développeur (euse) Expert(e) Elastic Search / Java CONTEXTE Au sein d'un domaine Front Web, la mission consiste à assister dans le développement la montée de version ElasticSearch au sein d'une application vente. Cette application à comme objectifs: • Les données « produits » sont enregistrées dans un cluster Elastic • Les données sont utilisées par différentes applications pour la recherche et l'affichage des informations produits sur une market place • D'être hautement disponible avec des performances idéales DESCRIPTION DE LA MISSION - Opérer la montée de version d'Elasticsearch actuellement en version 6 pour passer sur une version 8 latest dans un contexte fonctionnel riche - Participer aux développements à venir ENVIRONNEMENT TECHNIQUE - Java 8 - Elastic search 6+ - Framework Dropwizard -Application haute disponibilité, haute performance
Mission freelance
Expert Kubernetes / OPENSHIFT - mission long terme Projets IAC et conteneurs
PROPULSE IT
Publiée le
IAC
Kubernetes
Openshift
24 mois
450-900 €
Paris, France
PROPULSE IT recherche pour un de ses clients grands comptes un Expert Kubernetes et mise en place de chaines CI/CD, dans le cadre de projets de conteneurisation OnPremise et IAC. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters • Aide à l'administration et maintenance des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Description de la mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Administration/ Maintien en condition opérationnel des clusters Openshift - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation.
Offre d'emploi
🎯 CDI — Senior Data Engineer / Data Analyst (50k€ max)
Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python
40k-50k €
Paris, France
🎯 CDI — Senior Data Engineer / Data Analyst (50k€ max) — Secteur Luxe / Marketing Digital / Media Performance Au sein d’une équipe data pluridisciplinaire (Tech Lead, Full Stack Developers, Data Scientists, Product Owner, QA), vous intervenez sur des applications liées aux métiers du marketing digital et de la performance média. L’une des applications principales permet de fournir une vision globale de la performance des contenus créatifs (assets média), depuis la stratégie globale jusqu’à leur activation locale. 🚀 Missions principales 🔹 Data Engineering & Pipelines Développer et maintenir les pipelines de données : sourcing depuis un Data Lake (BigQuery), récupération d’assets vidéo via APIs de plateformes social media, intégration d’analyses créatives via une application interne DAM augmentée, automatisation des traitements IA (embedding, clustering). 🔹 Transformation & Modélisation Data Transformer la donnée brute en tables optimisées pour l’application : fusion KPIs performance, métadonnées, données créatives. Développer des requêtes SQL à partir des besoins métiers. 🔹 Backend & Cloud (GCP) Optimiser le déploiement backend sur Google Cloud Platform. Participer à la migration d’applications internes. Moderniser certaines briques techniques (thumbnail, détection produit, encodage média). 🔹 Qualité & Industrialisation Ajouter des tests unitaires et d’intégration en Python. Optimiser la chaîne CI/CD. Mettre en place un premier niveau de monitoring data et KPIs. Garantir la qualité et la cohérence des données consolidées. 🔹 Data Analyse & Insights Croiser les données pour produire : insights marketing, benchmarks, analyses de performance créative. 🔹 Documentation Documenter les sources data et les schémas de données. 🌟 Profil recherché CDI uniquement. Salaire : 50k€ maximum. Senior Data Engineer / Data Analyst. Expertise attendue : Python, SQL avancé, BigQuery, GCP, API integrations, Data pipelines. Bonne compréhension IA/Data (embedding, clustering). Expérience marketing digital ou media analytics appréciée. ⭐ Résumé rapide 👉 CDI Senior Data Engineer / Data Analyst (50k€ max) pour développer des pipelines data et analyser la performance des contenus média dans un environnement marketing digital et cloud GCP.
Mission freelance
Consultant Devops Intégration des applications
PROPULSE IT
Publiée le
DevOps
Intégration
24 mois
375-750 €
Paris, France
PROPULSE IT recherche pour un de ses clients grand compte un consultant devops en intégration des applications, avec 10 ans d'expérience minimum. L'intégration consiste à accompagner le maître d'œuvre informatique de la phase de conception jusqu'à la mise en production afin de garantir l'exploitabilité de son application. Les projets d'intégration concernent des nouvelles applications, des évolutions d'applications existantes ou des correctifs (patchs). La charge induite par l'arrivée de projets informatiques et l'évolution des applications en intégration nécessite de recourir à une prestation d'un Expert-Devops dans ce domaine. Dans le cadre des projets « Conteneurisation OnPremise » et « IAC », cette équipe souhaite se renforcer avec une prestation d'expert technique sur les technologies KUBERNETES et de mise en place des chaines de CI/CD. La mission sur le périmètre KUBERNETES comporte deux volets principaux : Accompagnement à l'installation et configuration des clusters. La chaîne CI/CD sera composée des éléments ci-dessous : Gitlab (repository + pipelines + runners) - Hashicorp Vault - Artifactory - Kaniko - Trivy - Grype - Syft - Checkov - Kubernetes - ArgoCd Mission : - Configuration des clusters Openshift et des services associés (ex :Sauvegarde/Surveillance) - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. - Réaliser et modifier différents jobs et pipelines Gitlab-CI
Offre d'emploi
Elastic Engineer - Obervability
SMILE
Publiée le
Elasticsearch
Git
Gitlab
6 mois
55k-70k €
500-650 €
Paris, France
Objectifs de la mission En tant que Elastic Engineer, vous êtes responsable de la conception, du déploiement et de la maintenance des solutions basées sur la stack Elastic (Elasticsearch, Logstash, Kibana, Beats) via des plateformes d’orchestrations Elastic Cloud Enterprise et Nomad/Consul. Vous garantissez la disponibilité, les performances et la sécurité de l'infrastructure sous-jacente. Vous ne gérez pas le contenu des données ni les cas d'usage métier. Voici les principales responsabilités : Fourniture de service : Mise à disposition de clusters Elasticsearch à la demande Provisioning automatisé pour les équipes consommatrices Catalogue de services avec différents niveaux de performance SLA de disponibilité et de performance garantis Scalabilité et élasticité : Dimensionnement des clusters selon la charge Gestion des pics de trafic et de volumétrie Optimisation des ressources compute et storage Planification de capacité à moyen/long terme Sécurité et isolation : Isolation multi-tenant entre les différents projets Gestion des certificats et de l'authentification Contrôle d'accès au niveau plateforme Administration ECE : Installation et configuration d'Elastic Cloud Enterprise Gestion des allocators et des zones de disponibilité Monitoring de la santé de la plateforme ECE Mise à jour des versions ECE et des templates de déploiement Gestion du cycle de vie : Déploiement automatisé de nouveaux clusters Gestion des montées de version Elastic Stack Sauvegarde et restauration au niveau plateforme Archivage et suppression des clusters obsolètes Intégration infrastructure : Intégration avec les systèmes de virtualisation/conteneurisation Configuration réseau et load balancing Intégration avec les solutions de monitoring infrastructure Gestion des certificats Interface avec les équipes : Support aux équipes utilisatrices : Formation sur les bonnes pratiques d'utilisation Support technique sur les aspects plateforme Conseil en architecture pour le dimensionnement Résolution des incidents liés à l'infrastructure Collaboration transverse : Équipes réseau pour la connectivité et sécurité Équipes système pour l'infrastructure sous-jacente Équipes sécurité pour les audits et conformité Équipes projet pour les nouveaux besoins Métriques et pilotage Indicateurs de performance : Disponibilité de la plateforme ECE (uptime) Temps de provisioning des nouveaux clusters Utilisation des ressources et optimisation des coûts Satisfaction des équipes consommatrices Gouvernance technique : Standardisation des configurations de clusters Politique de rétention et d'archivage Processus de mise à jour et de maintenance Documentation technique et procédures L'ingénieur Elastic agit comme un fournisseur de services internes, garantissant une plateforme Elastic robuste et performante que les équipes peuvent consommer en self-service pour leurs besoins d'analyse et d'observabilité. Contexte technique Dans un contexte d’une production informatique, nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic. Cet ensemble se décompose 2 000 instances Elasticsearch, 700 instances Kibana, 70 instances APM et 600 instances Logstash pour une volumétrie de 15 Tb/j. Le développement de cette plateforme Elastic est faite au travers une chaine de fabrication permettant à l’équipe de développer les projets avec du versionning control (Git), de la CI et du déploiement via Ansible. L’environnement technique est interconnecté à un ensemble de plateforme complexe tels que : Plateforme Streaming Plateforme d’orchestration de conteneurs Plateforme de virtualisation Applications critiques DESCRIPTION DE LA MISSION Les fonctions à réaliser ou la description des lots Pour réaliser la mission, vous êtes à même de : Diriger la livraison de plateforme d’Observabilité pour assurer le succès de notre plateforme auprès des clients Conception de solutions, développement et intégration de produit et services d’Observabilité, architecture de plateforme et planification de la capacité dans des environnements critiques. Développement de démonstrations et de preuves de concept qui mettent en évidence la valeur de la plateforme d’Observabilité. Accompagnement dans la modélisation des données, développement et optimisation des requêtes, réglage et mise à l’échelle des clusters, en mettant l’accent sur la recherche rapide et l’analyse à l’échelle. Résoudre les problèmes de données les plus complexes de nos clients. Travailler en étroite collaboration avec les équipes d’exploitation afin d'identifier les améliorations à apporter aux fonctionnalités. Être un mentor/coach pour vos collègues. Compétences Compétences minimales requises Expertise sur la stack Elastic Enterpprise Expertise des outils de fabrication, Git, Gitlab, Gitlab CI, Ansible Bonnes connaissances dans le développement Python et de la plateforme Kubernetes Maitrise de la culture DevOps et des pratiques SRE Bonnes connaissances système et réseaux Maitrise de l’anglais professionnel Qualités humaines Curieux et force de propositions Rigueur, sens de la méthode ; Capacités relationnelles et travail en équipe ; Disponibilité et réactivité ; Analyse et résolution d'incidents ; Sens du service et respect des engagements.
Mission freelance
Développeur Fullstack Java/ React (H/F)
HOXTON PARTNERS
Publiée le
Docker Compose
Next.js
React
12 mois
450-500 €
Paris, France
Dans le cadre d’un renfort d’équipe, nous recherchons un Développeur Full Stack disposant de 4 à 6 ans d’expérience pour intervenir sur une application existante développée depuis deux ans. La mission porte principalement sur du développement spécifique en environnement Java 17 / Spring Boot côté back-end et React.js / Next.js côté front-end. Le consultant pourra également intervenir en parallèle sur des activités de TMA applicative (stack Java, Angular, EJB). Une sensibilité DevOps est attendue (Docker Compose). La connaissance d’un environnement cluster Kubernetes constitue un plus.
Offre premium
Mission freelance
DevOps Engineer / SRE (Expert OpenShift)
MEETSHAKE
Publiée le
DevOps
Gitlab
Grafana
6 mois
Paris, France
Au sein de l'équipe SRE, votre mission dépasse la simple maintenance : vous êtes l'architecte de la résilience. Vous intervenez sur des environnements Cloud hybrides à forte échelle avec un focus majeur sur l'écosystème Red Hat OpenShift . Fiabilisation : Définition et suivi des indicateurs critiques (SLI/SLO) et gestion des Error Budgets pour garantir une disponibilité optimale. Automatisation Totale : Industrialisation de l’infrastructure via Terraform et pilotage des déploiements en mode GitOps avec ArgoCD. Expertise Kubernetes : Administration avancée des clusters, gestion du cycle de vie des opérateurs, optimisation du SDN et du stockage persistant. Continuous Delivery : Évolution et sécurisation des pipelines GitLab CI pour fluidifier le passage en production des microservices.
Mission freelance
Expert Devops Openshift
PROPULSE IT
Publiée le
DevOps
Openshift
24 mois
400-800 €
Paris, France
PROPULSE IT recherche un Expert DEVOPS dans le cadre des projets « Conteneurisation OnPremise » et « IAC ». L' équipe souhaite se renforcer avec une prestation d'expert technique sur les technologies KUBERNETES et de mise en place des chaines de CI/CD. La mission sur le périmètre KUBERNETES comporte deux volets principaux : - Accompagnement à l'installation et configuration des clusters La chaîne CI/CD sera composée des éléments Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory, Kaniko , Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». Mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. - Réaliser et modifier différents jobs et pipelines Gitlab-CI
Mission freelance
Expert technique Kubernetes
PROPULSE IT
Publiée le
Kubernetes
24 mois
400-800 €
Paris, France
Propulse IT recherche pour un de ses clients grands comptes un Expert technique Kubernetes et de la mise en place des chaines CI/CD. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». Mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. - Réaliser et modifier différents jobs et pipelines Gitlab-CI
Mission freelance
Expert technique DEVOPS Senior
PROPULSE IT
Publiée le
DevOps
24 mois
325-650 €
Paris, France
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Offre d'emploi
Ingénieur DevOps Ansible
Etixway
Publiée le
Ansible
Dynatrace
Gitlab
12 mois
50k-55k €
500-550 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring kube-prometheus-stack (Prometheus Opertaor, Alertmanager) et Grafana Opertaor et mise en place des dashborads en mode GitOps en utilisant le CRD GrafanaDashboard sur un cluster RKE2 • Déploiement de Elasticsearch, Kibana et fluentd et avec l’OLM (Operator Lifecycle Managament) “ClusterLogging“ Déploiement de Dynatrace Opertaor pour le monitoring applicatif et d’infrastructure Automatisation Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Offre premium
Offre d'emploi
Expert Bases de Données (Cassandra)
Lùkla
Publiée le
Ansible
Azure
Cassandra
3 ans
44k-70k €
400-700 €
Paris, France
Une maison de luxe internationale recherche un Expert Bases de Données afin de renforcer l’animation et l’expertise du domaine Databases au sein de ses équipes. Le poste s’inscrit dans un contexte de croissance des environnements relationnels et NoSQL, avec une présence internationale et des équipes réparties sur plusieurs continents. Le consultant contribuera à garantir la performance, la disponibilité et la sécurité des systèmes de bases de données critiques pour les applications de l’entreprise. Le consultant aura pour principales responsabilités : Administration & Maintenance Installer, configurer et mettre à jour les bases de données relationnelles (PostgreSQL, MySQL, MariaDB) et NoSQL (Cassandra). Assurer la maintenance préventive et corrective des systèmes. Optimisation des Performances Optimiser les requêtes, gérer les index et concevoir des schémas pour assurer une latence minimale. Garantir la performance des bases de données pour des charges applicatives importantes. Haute Disponibilité & Reprise après Sinistre Concevoir et mettre en œuvre des solutions de clustering, de réplication et de sauvegarde robustes. Modélisation & Support Développement Collaborer avec les équipes de développement pour choisir la base de données adaptée à chaque cas d’usage. Participer à l’audit et à la révision de la documentation existante. Sécurité & Conformité Implémenter des contrôles d’accès basés sur les rôles (RBAC), le chiffrement des données et la journalisation des audits. Rédiger une documentation claire et complète des systèmes de bases de données.
Offre d'emploi
DataOPs Kafka
JEMS
Publiée le
Apache Kafka
Kubernetes
3 ans
54k-70k €
470-630 €
Paris, France
Au sein du pôle technologique en charge des plateformes as a service , vous rejoignez la Squad Streaming qui est responsable du build et du run d’une plateforme Kafka (Confluent) de grande envergure, utilisée par de nombreuses entités du groupe. La plateforme compte plus de 30 clusters Kafka et constitue un socle critique pour les flux de données temps réel. Build & Architecture Déployer de nouveaux clusters Kafka (Confluent) Participer à la définition des architectures futures de la plateforme Concevoir et tester des prototypes liés aux nouveaux cas d’usage Industrialisation & Automatisation Automatiser les déploiements et opérations via Ansible Standardiser et fiabiliser les configurations Améliorer en continu les processus d’installation, d’upgrade et de scaling Run & Exploitation Assurer la mise en production et le maintien en condition opérationnelle des clusters Mettre à l’échelle les clusters existants (scaling horizontal et vertical) Participer aux astreintes techniques Diagnostiquer et résoudre les incidents complexes liés à la plateforme Support & Expertise Accompagner les équipes utilisatrices dans l’usage de la plateforme Kafka Fournir un support technique avancé Documenter les offres proposées par la plateforme Animer des formations, démonstrations et WebTech Rôle au sein de la Squad Prendre en charge des éléments du backlog Participer aux rituels agiles (daily, rétrospectives, démos, PI Planning) Co-construire la roadmap avec le Product Owner et le Squad Lead Endosser le rôle de lead technique sur un produit de la plateforme Compétences techniques requises Expertise solide Kafka (idéalement Confluent) Expérience d’exploitation de plateformes en production critique Automatisation avec Ansible Systèmes Linux Connaissance des architectures distribuées et résilientes Compétences appréciées Kubernetes Observabilité / monitoring Réseaux & sécurité Scripting (Python, Bash)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
16 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois