Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI

Votre recherche renvoie 255 résultats.
Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack (H/F) – Nantes

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Cypress
Datadog

1 an
10k-51k €
100-400 €
Nantes, Pays de la Loire
Contexte Dans le cadre du développement d’une application en marque blanche dédiée à la vente d’abonnements de nous recherchons un développeur fullstack pour intégrer une équipe agile à taille humaine (7 personnes), basée à Nantes. Vous évoluerez au sein d’une équipe SCRUM , dynamique et collaborative, avec une forte implication dans les choix techniques et fonctionnels. Vos missions Intégré(e) à l’équipe, vous interviendrez sur l’ensemble du cycle de vie de l’application : Maintenance et évolution de l’application existante Développement de nouvelles fonctionnalités Amélioration continue du socle technique Maintien et enrichissement des tests automatisés Exécution des tests de non-régression Déploiement des releases jusqu’en production Participation aux phases de conception en collaboration avec le Product Owner Vos livrables Développement de fonctions AWS Lambda Développement en TypeScript (backend & frontend) Rédaction et exécution de tests (unitaires, intégration, end-to-end) Réalisation de revues de code Rédaction de documents de conception technique Analyse et correction des anomalies Support aux problématiques d’exploitation Contribution au respect des critères d’acceptation des releases Participation aux cérémonies agiles (daily, sprint planning, rétrospective) Contribution à la qualité, la sécurité et la résilience de l’application Environnement technique Stack principale : AWS Lambda TypeScript React Cloudflare PostgreSQL DynamoDB CI/CD & outils : GitLab CI Cypress (tests automatisés) AWS CDK & Terraform Datadog
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance

Mission freelance
Ingénieur Cloud Junior (AWs/GCP/DevOps)

CONCRETIO SERVICES
Publiée le
Apache Kafka
AWS Cloud
DevOps

6 mois
450-500 €
Nanterre, Île-de-France
MISSIONS PRINCIPALES Supervision & Disponibilité Production Assurer le monitoring 24/7 des systèmes de production via Grafana, Prometheus, Datadog et Stackdriver — détection proactive des anomalies avant impact utilisateur Créer et maintenir les dashboards et les alertes, corréler les événements pour le diagnostic d'incidents Participer à l'astreinte on-call (PagerDuty) sur les systèmes critiques Gestion des Incidents Prendre en charge les incidents de production, mener le troubleshooting et produire les RCA (Root Cause Analysis) Définir et mettre en œuvre les actions correctives et préventives pour éviter la récurrence Communiquer de façon claire avec les équipes et le management en situation de crise Automatisation & Infrastructure as Code Écrire et maintenir les configurations Terraform en production (modules, state management, workspaces) Automatiser les opérations répétitives via Python et Bash — déploiements, inventaire, vérification, reporting Gérer la configuration via Ansible et maintenir les pipelines GitLab CI Exploitation des Environnements Conteneurisés & Plateformes Opérer Kubernetes en production : déploiements, services, scaling HPA, troubleshooting pods/nodes, gestion des namespaces et RBAC Opérer Kafka en production : monitoring du lag consumer, gestion des topics et partitions, diagnostic des incidents de streaming Assurer le support opérationnel sur les bases de données : PostgreSQL, Elasticsearch, Couchbase (performances, sauvegardes, restaurations) Réseau & Sécurité Cloud Gérer les VPN, NAT, routage IP, proxy et load balancing en environnement cloud AWS et GCP Appliquer les bonnes pratiques de sécurité et de gestion des accès (IAM, VPC)
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme & Industrialisation Infrastructure

Deodis
Publiée le
Automatisation
Infrastructure

12 mois
40k-45k €
540-600 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
La Direction Infrastructure recherche un ou une Ingénieur Plateforme & Industrialisation. Vous rejoignez le Service Industrialisation des Infrastructures, au cœur de la transformation des pratiques, garant de la démarche d’Infrastructure as Code (IaC). Au-delà de l’automatisation des tâches techniques, l’ambition est de construire un socle de services d’infrastructure fiable, sécurisé, traçable et réutilisable, dans une logique de plateforme au service des équipes internes et externes. Votre rôle, au sein de l’équipe, sera de contribuer à faire évoluer l’infrastructure vers un modèle plus standardisé, plus automatisé et davantage orienté catalogue de services, afin de proposer des services d’infrastructure industrialisés, cohérents et simples à consommer. Votre mission Contribuer à l’identification, au cadrage et à la mise en œuvre des cas d’usage d’automatisation et de standardisation Développer et maintenir des composants d’infrastructure automatisés, réutilisables et intégrés dans un catalogue de services Appliquer les standards, blueprints et patterns techniques définis, et proposer des améliorations continues Mettre en œuvre des automatisations sur les périmètres système, virtualisation, réseau, sécurité et middleware Garantir la qualité, la robustesse, la maintenabilité et la traçabilité des solutions développées Participer aux pratiques d’industrialisation (tests, CI/CD, revue de code, documentation) Collaborer avec les équipes pour faciliter l’adoption des outils et contribuer à la diffusion des bonnes pratiques Assurer un rôle de support et d’accompagnement auprès des équipes dans l’usage des solutions d’infrastructure automatisées Environnement technique · Une infrastructure ambitieuse d’environ 3500 serveurs · OS : Oracle Linux, Red Hat, Windows Server · Virtualisation & Middleware : VMware, Vates, Kubernetes, Docker, Active Directory, Wallix · Automatisation & CI/CD : Ansible, Terraform, AWX, GitLab CI, Foreman, Katello · Scripting : Bash, PowerShell, Python · Packaging : RPMBuild
CDI

Offre d'emploi
Développeur Java Spring Confirmé (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
Apache Kafka
CI/CD

37k-43k €
Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance

Mission freelance
Lead DevOps Kafka Senior – Assistance Technique (IBM Cloud / Kubernetes / Kafka as Code)

Deodis
Publiée le
CI/CD

1 an
600-650 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe technique en charge de plateformes de streaming de données, la mission consiste à intervenir en tant que Lead DevOps senior au sein d’une squad dédiée à plusieurs offres Kafka opérées à la fois on-premise et dans le cloud. Le consultant participera à l’administration avancée des clusters Kafka, aux activités de build et de run, ainsi qu’au support de niveau expert en environnement de production. Il contribuera également au maintien en conditions opérationnelles d’une offre en fin de vie, tout en accompagnant le développement d’une offre stratégique basée sur une approche “Kafka as Code”, incluant l’automatisation du provisioning, le développement d’outils et de pipelines (Python, Terraform, Airflow), et l’intégration CI/CD et GitOps. L’environnement technique repose notamment sur Linux, Docker, Kubernetes et des outils d’automatisation tels qu’Ansible et GitLab CI. Le poste requiert une forte autonomie, une expertise technique solide sur Kafka, ainsi qu’une capacité à intervenir en contexte critique, incluant une participation aux astreintes et à l’amélioration continue des processus d’exploitation et de supervision.
CDI

Offre d'emploi
Concepteur Développeur Full Stack / Lead Dev (Java / Angular / Cloud AWS) F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
CI/CD

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
POT9141 - Un Data Ingénieur DevOps / AWS sur Plaisir

Almatek
Publiée le
AWS Cloud

6 mois
Plaisir, Île-de-France
Almatek recherche pour l'un de ses clients Un Data Ingénieur DevOps / AWS sur Plaisir. Contexte de la mission Dans le cadre de la mise en place d’une dataplateforme d’entreprise, la DSI du client souhaite intégrer un expert Data Ingénieur & DevOps AWS afin de : Mettre en place l’ingestion de différents types de données (structurées, semi?structurées, non structurées) Industrialiser l’ingestion des données depuis un datalake existant vers la nouvelle dataplateforme Automatiser l’intégration des données dans la couche standardisée AWS (RAW DATA vers STANDARDIZED) Réaliser la documentation et assurer le transfert de connaissances L’objectif principal est de finaliser un premier use case incluant l’ingestion de plus de 100 tables issues d’un ERP, tout en accompagnant la montée en compétences des équipes internes (équipe data et Data Engineer). Environnement Technique Data Engineering & Cloud AWS Services AWS Data : S3, Glue, Redshift, Athena, EMR, Lambda Pipelines et orchestration : Step Functions, Airflow, Lambda Python Patterns d’architecture data : Data Lake, ETL / ELT, Data Mesh Transformation data : dbt DevOps & Industrialisation Infrastructure as Code : Terraform CI/CD : GitLab CI/CD Gestion des environnements DEV / PREPROD / PROD Versionning du code et de la data : Git, DVC, LakeFS Sécurité & Gouvernance IAM, gestion des accès, chiffrement Gouvernance et catalogage : Glue Data Catalog, Collibra ou équivalent
Freelance

Mission freelance
Développeur / Lead tech drupal & symfony

Sapiens Group
Publiée le
CI/CD
Drupal

1 an
400-500 €
Paris, France
Mission principale Au sein de l’équipe technique, vous intervenez sur le développement, l’architecture et l’optimisation de projets web basés sur Drupal et Symfony. Vous êtes garant de la qualité technique, de la performance des solutions et contribuez à l’amélioration continue des pratiques de développement et des infrastructures. Responsabilités Développement & expertise technique Concevoir et développer des fonctionnalités sur mesure sous Drupal 9/10 et Symfony 5/6 Participer aux choix d’architecture technique et aux orientations des projets Réaliser des migrations applicatives (notamment vers Drupal 10 ) Développer et maintenir des API (API Platform) Concevoir des scripts Node.js pour des usages backend (ex : AWS Lambda) Qualité & amélioration continue Garantir la qualité du code (revues de code, bonnes pratiques, standards) Mettre en place et améliorer les processus de développement (industrialisation, outillage) Implémenter et maintenir des tests automatisés ( PHPUnit , Cypress ) dans une démarche TDD Accompagner et former les développeurs (mentorat, support technique) DevOps & infrastructure Concevoir et maintenir des infrastructures cloud sur AWS via Terraform Mettre en place et gérer des pipelines CI/CD avec GitLab CI Automatiser les déploiements via AWS CodeDeploy et scripts shell Conteneuriser les applications avec Docker Mettre en place des solutions de monitoring et de logging ( Grafana , Loki ) Administrer des outils de recherche et d’analyse ( Elasticsearch , Kibana ) Relation client & conseil Accompagner les clients dans leurs choix techniques Apporter une expertise sur les bonnes pratiques et les solutions adaptées Participer à la conception fonctionnelle et technique des projets
CDI

Offre d'emploi
Développeur Mobile Android Kmp Sénior H/F

█ █ █ █ █ █ █
Publiée le
CI/CD
Gitlab
Jenkins

50k-60k €
Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineering DBT / SQL (430€)

BEEZEN
Publiée le
DBT

6 mois
40k-81k €
340-430 €
Lyon, Auvergne-Rhône-Alpes
● Maîtriser DataForm pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DataForm pour structurer les pipelines data. ● Gérer des fl ux temps réel avec Pub/Sub. ● Automatiser les workfl ows data via GitLab CI/CD et Docker Compose. ● Travailler sous Linux et en ligne de commande. ● Versionner le code avec Git. ● Collaborer en environnement agile (Scrum). - Expériences (au moins 2 ans) sur des projets intégrant DBT 1 JOUR SUR SITE
Freelance

Mission freelance
Ingénieur de Production OPS Cash Management – Cloud IBM/Kubernetes

BEEZEN
Publiée le
Ansible
Apache Kafka
Argo CD

12 mois
500-570 €
Montreuil, Île-de-France
Je recherche une prestation d'ingénierie de Production OPS/DevOps (rôle IT OPS) pour accompagner la gestion des applications du build au run du périmètre Cash Management dans un contexte Agile et cloud (IBM/Kubernetes). Les projets de déploiement sont en cours de construction avec pour objectif une mise en production avant la fin de l'année. Une forte culture cloud (infrastructure, système & réseau, base de données) est indispensable, ainsi qu'une expérience en contribution projets côté OPS. Profil confirmé ou senior apprécié. La connaissance du secteur bancaire / paiements constitue un atout. Une expérience en contribution OPS en mode projet est indispensable pour assurer une adaptation rapide au périmètre. MISSIONS PRINCIPALES Environnements & Infrastructure Création ou mise à jour des environnements cloud & on-premise (VM, bases de données, clusters, namespaces, message queues, VIP) Migration des applications vers le cloud DMZR (cloud IBM / Kubernetes) Gestion de l'intégration, installation, mise à jour et exploitation applicative Déploiement & Automatisation Gestion des chaînes de déploiements via Ansible Tower, Gitlab CI/CD, Digital AI Release, Jenkins Mise en place des Jalons Qualités (Quality Gates) Mise à jour des consignes d'exploitation et contribution au passage en patrimoine Monitoring & Performance Mise en place du monitoring avec indicateurs de performance / surveillance (stack Elastic et Dynatrace) Implémentation et surveillance des services de production (OpStore…) Proposition d'axes d'optimisations, d'industrialisations et d'amélioration des méthodes Maintien en Conditions Opérationnelles (MCO) Participation au diagnostic et à la résolution des incidents Gestion des problèmes (Time to fix / Time to repair) Application des principes du continuous operations / exploitation Veille à la disponibilité d'une documentation d'installation et d'exploitation à jour Accompagnement & Documentation Accompagnement technique et fonctionnel Participation à la documentation technique et applicative Assurance de la traçabilité des accès aux machines (OS, stockage, routeurs…) Opérations en HNO et astreintes RÔLE AU SEIN DE L'ÉQUIPE AGILE (SCRUM) L'Ingénieur OPS intervient au sein d'une équipe Agile (Scrum) autonome et pluridisciplinaire, composée de ressources IT métiers (Dev) et OPS, responsabilisées autour d'un ou plusieurs produits. Participation aux rituels & backlog Participation à l'ensemble des rituels Agile : Sprint planning, Daily Meeting, Review, Rétro Communication des exigences infrastructure et exploitation dans le product backlog Évaluation de la complexité des User Stories lors des sprint planning Implémentation des User Stories techniques et d'exploitation du Product Backlog Déclaration des obstacles (impediments) et remontée aux bons interlocuteurs Support & montée en compétences Sensibilisation et propagation des bonnes pratiques OPS au sein de l'équipe Assurance de la montée en compétence de l'équipe Agile sur les bonnes pratiques DevOps (profil confirmé et senior) Promotion des solutions standards ou expérimentales répondant aux problématiques de l'équipe Challenge de l'équipe sur les solutions proposées en s'appuyant sur l'expertise Ops Infrastructure & conformité Anticipation des problématiques de conformité aux règles et standards d'architecture et de sécurité Obtention et gestion des ressources techniques en tant que référent Test de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Identification des points de blocage Ops (flux, sécurité, réseau…) et proposition de plans d'action STACK TECHNIQUE Containerisation: Kubernetes, Kubernetes/HELM, OpenShift Messaging / Flux: Kafka, EventStream, CFT, IBM MQ Déploiement: Ansible, Ansible Tower, Terraform, ArgoCD, Gitlab CI/CD, Jenkins, Digital AI Release Monitoring: ELK / Elastic, Dynatrace, IBM Cloud Logs, IBM Cloud Monitoring (Sysdig) Base de données: MongoDB, Oracle, PostgreSQL PROFIL RECHERCHÉ Compétences indispensables Intégration Applicative Open : Linux, Windows, Sortie d'Aix Compétences DevOps cloud : Ansible, Kubernetes, Micro-Services, Plateforme aaS (As A Service) Maîtrise du scripting Maîtrise de l'ordonnancement (schedulers) Connaissance de l'Intégration Continue (CI) : GitLab, Bitbucket, Nexus, Artifactory, Jenkins Infrastructure Cloud (IaaS, PaaS) et applications Open Expérience en contribution projets côté OPS Atout apprécié Connaissance de l'environnement bancaire, plus précisément des paiements
Freelance

Mission freelance
Chef de Projet Technique

UNITED SOLUTIONS
Publiée le
API REST
CI/CD
DNS

6 mois
350-430 €
Lyon, Auvergne-Rhône-Alpes
La/Le Chef de projet technique intervient dans la mise en œuvre, le pilotage et le suivi de solutions techniques d’intégration et d’applications. Les missions sont : • Assurer la mise en œuvre et le suivi des solutions techniques (API, flux, intégration) ; • Définir et mettre en place des architectures techniques (API REST, JSON/XML, routage, reverse proxy, DNS) ; • Intervenir sur les flux d’échange (EDI, SFTP…) ; • Utiliser et exploiter les outils de développement et d’intégration (Postman, Git, GitLab CI, ArgoCD) ; • Participer à la gestion et au suivi des tickets et des projets (JIRA, ITOP) ; • Assurer le suivi et l’analyse des logs et de la performance (ELK) ; • Produire et maintenir la documentation technique (Markdown, Suite Office) ; • Participer aux phases de tests et de recette ; • Assurer le reporting, le support et le pilotage des activités ; • Participer aux ateliers et aux échanges avec les équipes et les clients.
Offre premium
CDI

Offre d'emploi
Cloud Engineer / Administrateur SRE Kubernetes – Expérimenté F/H

Clostera
Publiée le
Google Cloud Platform (GCP)
Kubernetes

54k-65k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! L’équipe Kubernetes administre, exploite et fait évoluer des clusters Kubernetes dédiés aux différentes équipes produit et métiers. Dans un environnement 100% Cloud (GCP & Azure), l’exploitation suit une approche GitOps avec un fort ancrage open source et CNCF. Le rôle consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes, dans un contexte de production exigeant nécessitant autonomie et maîtrise technique avancée. Mission : Gestion de pods , services , ingresses et namespaces “infra” , avec application des bonnes pratiques sur les manifests applicatifs Provisionnement AKS / GKE et ressources cloud via Terraform Industrialisation des déploiements avec GitLab CI/CD et ArgoCD Facilitation du time-to-market (certificats, DNS, observabilité, enablement fonctionnalités) Exploitation des clusters (upgrades K8s et composants, capacity management, PRA) Mise en place multi-tenant (namespaces, quotas, RBAC, network policies) Déploiement et maintenance de l’observabilité (Prometheus, Grafana, Loki, centralisation logs) Suivi consommation cloud (Azure Monitor, métriques GCP, dashboards) Optimisation des ressources (quotas, scaling, templates, extinction nocturne) Renforcement sécurité Kubernetes (policies, RBAC, audit logs) Gestion des secrets (Vault, Sealed Secrets, services cloud) Application des recommandations RSSI et sécurité Automatisation via scripting (Bash, Python, Go) Mise en place d’alerting avancé et proactif Promotion d’une culture SRE (fiabilité, autoscaling, bonnes pratiques CNCF/CAF)
255 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous