L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 287 résultats.
Offre d'emploi
DevOps Kubernetes
OCTOGONE
Publiée le
CI/CD
Docker
Kubernetes
1 an
40k-60k €
Île-de-France, France
Dans le cadre d'une mission chez l'un de nos clients du secteur mutualiste, l'environnement CI/CD existant repose sur une infrastructure Docker Swarm avec un certificat autosigné arrivant à expiration. Une migration vers Kubernetes a été décidée et la plateforme cible a été définie par les architectes internes. L'environnement est complexe : plusieurs centaines de serveurs physiques et virtuels, deux datacenters, une centaine de sites en MPLS, et une stack middleware dense (Kafka, ActiveMQ, WebLogic, Tomcat) avec supervision Prometheus/Grafana/Zabbix. Description Le consultant interviendra pour monter la plateforme Kubernetes cible définie par les architectes, puis migrer l'ensemble des workloads depuis Docker Swarm. Il s'intégrera à l'équipe projet en place, assurera un reporting régulier sur l'avancement, remontera les alertes et blocages, et produira des livrables de communication vulgarisés à destination du Top Management, aussi bien à l'écrit qu'à l'oral. Mission d'une durée minimale de 12 mois, sur site en région parisienne ou Grand Est, avec 2 jours de télétravail par semaine.
Mission freelance
Ingénieur Kubernetes
ROCKET TALENTS
Publiée le
Docker
Kubernetes
1 an
450-500 €
Saclay, Île-de-France
Description : Prestation en Ingénierie Kubernetes option Maintien en Conditions Opérationnelles (MCO) des plateformes Kubernetes dans le cadre d’un contrat d’infogérance capable de participer au travail d’une équipe de moins de dix personnes en fonction des priorités fixés par la gouvernance du compte, les besoins des études (Projets) et les impératifs de maintien en condition opérationnelles du périmètre de l’équipe sous la responsabilité du responsable des infrastructures Environnements : • Containerisation : Kubernetes, Docker (50 Clusters) • Modules Rancher / Graphana / Valero / LongHorn • Virtualisation ESX (20) • VM Opérating system : LINUX (Redhat, Ubuntu) / Windows (200) Compétences attendues : • Cogérer avec les ingénieurs systèmes des composants d’infrastructures portant les plateformes Kubernetes : Serveurs HP/ ESX / VM Ubuntu et Windows / Load Balancer • Déployer des cubes Kubernetes • Déployer les applications sur les clusters • Maintenir les 50 clusters (BAS /Qual / Prod) • Gérer les incidents et demandes liées aux plateformes • Maintenir un monitoring avancé de l’infrastructure et des applications • Gérer le capacity planning des plateformes • Automatiser les mises à jour via Ansible • Effectuer les mises à jour mensuels / semestriels et annuels • Maintenir la documentation • Aider à la montée des compétences de l’équipe
Mission freelance
Ingénieur devops (H/F)
Trust IT
Publiée le
Ansible
Docker
IBM Cloud
1 an
500-550 €
Île-de-France, France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un ingénieur devops (H/F) Les missions/activités : EN BUILD : - Expertise de projet et co-construction avec l'IT Métier - Point d'entrée OPS dans le cadre des projets confiés - Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications - Création ou mise à jour des environnements - Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application - Mise en place de l’exploitation de l’application avant le passage en RUN - Accompagnement technique et conseil - Veille à l’application des bonnes pratiques, des standards du groupe EN RUN : - Gestion des incidents et des changements pour l'ensemble du périmètre de la Squad - Proposition d'axes d’optimisation, d’industrialisation - Veille a l'amélioration continue du monitoring et exploitation des applications. Les mindset AGILE et DEVOPS sont fortement recommandés Environnement technique - Outils DEVOPS (Ansible, ArgoCD) - Technologies sur nos applications o Cloud / IAAS : Linux, Websphere, Autosys, CFT o Cloud / PAAS : kubernetes, docker, openshift, PostgreSQL, ExaCC.. o Cloud DATA : Spark, Starbust, Airflow… - Outils de suivi : SNOW et JIRA
Mission freelance
Devops kubernetes
Codezys
Publiée le
Docker
Grafana
Kubernetes
12 mois
450-550 €
Le Mans, Pays de la Loire
Contexte de la mission L’équipe est en charge de l’outillage de déploiement ainsi que de l’administration fonctionnelle d’une plateforme. Elle intervient sur une variété de sujets tels que le développement, le support utilisateur, le support en production, l’intégration de solutions techniques, ainsi que la documentation. Modalités : Lieu : Le Mans Budget prestataire : 550 euros Organisation : 2 jours de télétravail par semaine Objectifs et livrables 1. Pilotage technique Définir les choix techniques et architecturaux relatifs à la plateforme. Garantir la qualité du code par le biais de revues, du respect des normes et des bonnes pratiques. Prioriser les travaux techniques en collaboration avec les Product Owners, notamment pour la refonte, la gestion de la dette technique et les évolutions. Participer activement au développement, en particulier sur les sujets complexes. 2. Encadrement d’équipe Accompagner quotidiennement les développeurs et favoriser leur montée en compétences. Animer les rituels techniques tels que les revues de code et les points techniques. Faciliter la communication entre l’équipe, les Product Owners et les autres équipes techniques. Jouer un rôle de mentor et de référent technique pour l’équipe. 3. Expertise technique Résoudre les incidents de niveau 3 en production. Fournir un support technique aux équipes internes (développeurs, Ops, Middleware). Documenter les décisions et choix techniques effectués. Assurer une veille technologique axée sur les écosystèmes Java, Kubernetes et Cloud. Améliorer en continu les processus techniques et méthodologiques.
Mission freelance
Devops kubernetes
HAYS France
Publiée le
Argo CD
CI/CD
Docker
1 an
400-550 €
Le Mans, Pays de la Loire
Nous recherchons pour un de nos clients basés au Mans, un Devops kubernetes pour une mission freelance (longue visibilité) Objectifs et livrables Missions1. Pilotage Technique Définir les choix techniques et architecturaux autour de la plateforme. Garantir la qualité du code (revues, normes, bonnes pratiques). Prioriser les travaux techniques avec les Product Owners (refonte, dette technique, évolutions). Participer activement au développement, notamment sur les sujets complexes. 2. Encadrement d’Équipe Accompagner les développeurs au quotidien et favoriser leur montée en compétences. Animer les rituels techniques (revues de code, points techniques). Faciliter la communication entre l’équipe, les PO, et les autres équipes techniques. Jouer un rôle de mentor et de référent technique. 3. Expertise Technique Résoudre les incidents production de niveau 3. Apporter un support technique aux équipes internes (développeurs, Ops, Middleware). Documenter les choix techniques. Assurer une veille technologique sur les écosystèmes Java, Kubernetes et Cloud. Améliorer en continu les processus techniques et méthodologiques. Technologies : Kubernetes, CI/CD (Jenkins, ArgoCD), Docker, Prometheus, Grafana, ELK, OPA/Gatekeeper, Vault.
Offre d'emploi
DevOps Engineer (Kubernetes / Terraform)
OMICRONE
Publiée le
CI/CD
DevOps
Kubernetes
2 ans
40k-45k €
400-470 €
Île-de-France, France
🚀 Nous recrutons un DevOps Engineer (Kubernetes / Terraform) Tu veux évoluer sur des environnements cloud modernes, automatisés et scalables ? Rejoins un projet à fort enjeu technique 👇 🎯 Tes missions • Concevoir, déployer et maintenir des infrastructures cloud et conteneurisées • Administrer et optimiser des clusters Kubernetes • Automatiser les infrastructures avec Terraform (Infrastructure as Code) • Mettre en place et améliorer les pipelines CI/CD • Assurer la disponibilité, la performance et la sécurité des plateformes • Participer à l’amélioration continue (monitoring, observabilité, fiabilité) • Collaborer étroitement avec les équipes dev pour industrialiser les déploiements 🛠 Stack Kubernetes • Terraform • Docker • CI/CD • Cloud (AWS / Azure / GCP) outils d’observabilité (Prometheus, Grafana…) 👤 Profil recherché • Expérience en DevOps / SRE / Cloud Engineering • Très bonne maîtrise de Kubernetes • Solide expérience sur Terraform • Bonne connaissance des environnements cloud • Culture automatisation, performance et fiabilité • Esprit collaboratif et orienté solution 📍 Infos clés • Localisation : Île-de-France • Démarrage : ASAP • Mission longue / CDI possible • Environnement technique moderne
Offre d'emploi
Tech Lead Ansible / DevOps H/F
LOMEGARD
Publiée le
Ansible
Docker
Gitflow
1 an
60k-70k €
540-640 €
Île-de-France, France
Dans un contexte de transformation digitale et de montée en charge des plateformes data et cloud, vous rejoignez une équipe agile intervenant sur des environnements complexes à forte volumétrie (Kubernetes, CI/CD, data platforms, Airflow…). Vous contribuez à l’industrialisation, l’automatisation et la fiabilisation des déploiements applicatifs et infrastructures, avec un rôle clé autour de l’écosystème Ansible et Kubernetes. Développer et maintenir des outils en Python , Ansible et Terraform pour automatiser et industrialiser les déploiements d’infrastructures et d’applications Automatiser les déploiements d’infrastructures et d’applications via Ansible (création et maintenance de rôles, structuration multi-rôles et multi-versions) Orchestrer et industrialiser les processus avec Ansible Tower Déployer, administrer et maintenir des clusters Kubernetes (performance, résilience, mises à jour) Concevoir, mettre en place et améliorer des pipelines CI/CD (GitLab CI) Automatiser les déploiements applicatifs via une approche GitOps avec ArgoCD Développer et maintenir des Helm charts (applications internes, Apache Airflow, personnalisations avancées) Mettre en place et maintenir des solutions de logging et monitoring (Rsyslog, Elasticsearch, Kibana, Dynatrace) Maîtriser les environnements SQL Server afin de fiabiliser et automatiser les opérations liées aux bases de données, en lien avec les équipes DBA et applicatives. Contribuer à la définition de l’architecture technique et aux échanges avec les équipes internes et partenaires Identifier, analyser et corriger les incidents techniques, tout en améliorant la fiabilité globale Garantir le respect des standards de sécurité et des bonnes pratiques DevOps Rédiger la documentation technique et accompagner les équipes sur les bonnes pratiques Assurer un rôle de référent technique et support au leadership si nécessaire
Offre d'emploi
DevOps Kubernetes H/F
Le Groupe SYD
Publiée le
Grafana
12 mois
70k-75k €
560-590 €
Le Mans, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Le Mans 🏠 Télétravail : 2 jours par semaine 📝Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur d’un secteur à forts enjeux métier , engagé dans la modernisation de ses plateformes applicatives et de déploiement . L’équipe intervient sur l’outillage de déploiement, l’administration fonctionnelle d’une plateforme critique et l’intégration de solutions techniques au cœur du système d’information. Dans un environnement Kubernetes / Cloud / CI‑CD , l’enjeu est de garantir la qualité, la stabilité et l’évolution continue de la plateforme , tout en accompagnant les équipes de développement et d’exploitation. En tant que DevOps Kubernetes , tu interviens comme référent technique sur la plateforme et contribues activement aux choix d’architecture, au delivery et à la fiabilisation des environnements de production. Tu auras pour missions de : Piloter techniquement la plateforme : définir les choix techniques et architecturaux Kubernetes, garantir la qualité du code (revues, normes, bonnes pratiques) et prioriser les chantiers techniques avec les Product Owners (dette technique, refonte, évolutions). Contribuer activement au développement , notamment sur les sujets complexes et à forte valeur ajoutée. Encadrer et accompagner l’équipe au quotidien : montée en compétences, animation des rituels techniques (revues de code, points techniques) et rôle de référent technique. Faciliter la collaboration transverse entre les équipes de développement, les PO, les équipes Ops et Middleware. Apporter une expertise de haut niveau : résolution des incidents de production niveau 3, support technique aux équipes internes et documentation des choix techniques. Faire évoluer la plateforme et les pratiques : veille technologique autour de Kubernetes, du Cloud et du DevOps, amélioration continue des processus techniques et méthodologiques. 🧰 Stack technique : Containerisation & Orchestration : Kubernetes (expert), Docker CI/CD : Jenkins, ArgoCD Observabilité : Prometheus, Grafana, ELK Sécurité : OPA / Gatekeeper, Vault Environnements : plateformes Kubernetes critiques, pipelines CI/CD industrialisés, environnements Cloud et conteneurisés
Mission freelance
Ingénieur de Production / DevOps – 2 postes ouverts
VISIAN
Publiée le
Administration linux
Bash
CI/CD
1 an
400-620 €
Île-de-France, France
🏢 Contexte de la mission Dans un environnement exigeant lié aux marchés financiers , vous intervenez au sein d’équipes en charge de la production applicative sur des systèmes critiques à forte volumétrie. La mission s’inscrit dans une dynamique de modernisation des plateformes avec une forte orientation : DevOps / SRE Cloud & conteneurisation Automatisation & industrialisation 🎯 Vos missions principales 🔹 Exploitation & Résilience Assurer la disponibilité et la stabilité des applications en production Gérer les incidents et piloter les analyses de causes racines Mettre en place des correctifs durables Améliorer le monitoring et l’alerting Participer aux astreintes 🔹 Support aux projets Administrer les environnements ( Linux / Windows ) Accompagner les équipes de développement Gérer les déploiements applicatifs Concevoir et optimiser les architectures ( on-premise & cloud ) 🔹 Automatisation & DevOps Développer des scripts ( Python, Shell, PowerShell ) Mettre en place et maintenir les pipelines CI/CD Contribuer à l’industrialisation et à la plateformisation
Mission freelance
Toulouse - Expert technique Kubernetes / OpenShift
SKILL EXPERT
Publiée le
Ansible
Docker
Grafana
6 mois
550-600 €
Toulouse, Occitanie
Dans le cadre de la montée en charge du socle PFSv2, marquée par l’intégration de nouveaux projets, les opérations de migration des environnements PFSv1 vers PFSv2, la construction des p/f pour l’hébergement des SIE (projet NIS) ainsi que par l’augmentation des besoins en exploitation, support et évolutions, il est nécessaire de renforcer l’équipe existante par le recours à une prestation d’expertise Kubernetes / OpenShift. Ce renfort vise à garantir un haut niveau de disponibilité, de performance et de sécurité des plateformes Kubernetes constituant le socle PFSv2, tout en accompagnant les équipes projets dans la mise en œuvre des bonnes pratiques de conception, de déploiement et d’exploitation des workloads conteneurisés. L’intervention s’inscrit dans une logique de pérennisation du socle, de fiabilisation des usages et de maîtrise opérationnelle, dans un contexte de croissance des usages et d’exigences accrues en matière de MCO/MCS. Objectifs de la mission L’objectif principal de la mission est d’assurer : le RUN des plateformes Kubernetes / OpenShift du socle PFSv2, une contribution active aux activités de BUILD, en lien avec les équipes projets et les équipes transverses le maintien en conditions opérationnelles et de sécurité des environnements, l’amélioration continue du socle et de ses usages. À ce titre, le prestataire interviendra notamment sur : l’exploitation quotidienne des clusters Kubernetes / OpenShift, la supervision des plateformes et des workloads, le traitement des incidents et des demandes de support (N2 / N3), la participation aux évolutions techniques et fonctionnelles du socle, la mise en œuvre des actions de MCO/MCS (patching, upgrades, durcissement, bonnes pratiques). Périmètre de la mission La mission couvre le périmètre suivant : Socle PFSv2, incluant : o les plateformes Kubernetes / OpenShift, o les composants associés (réseau, stockage, ingress, sécurité, CI/CD, observabilité), Activités RUN : o supervision et suivi de l’état de santé des plateformes, o analyse et résolution des incidents, o support aux équipes utilisatrices, Activités BUILD : o accompagnement des projets lors de l’onboarding sur PFSv2, o participation aux évolutions d’architecture et de configuration, MCO / MCS : o gestion des mises à jour, montées de version et correctifs, o prise en compte des exigences de sécurité et de conformité, o contribution à la documentation et au transfert de compétences. Compétences demandées Compétences Niveau de compétence GRAFANA Confirmé ANSIBLE Confirmé DOCKER Confirmé KUBERNETES Confirmé
Mission freelance
Mission courte d'Expert Kubernetes N3 / Architecte (H/F)
FUZYO FRANCE
Publiée le
DevOps
Kubernetes
10 jours
400-640 €
Paris, France
Dans le cadre d'une demande pour un acteur majeur des médias, nous recherchons un(e) Expert Kubernetes N3 / Architecte pour conduire un audit approfondi d’une plateforme existante et proposer des recommandations structurées et priorisées. Vos missions Réaliser un audit complet d’un environnement Kubernetes (on-prem VMware et/ou AWS) Analyser l’architecture des clusters, leur dimensionnement et les patterns de déploiement Évaluer les composants du control plane et du data plane Auditer la sécurité (RBAC, Network Policies, gestion des secrets, CIS) Analyser les pratiques CI/CD & GitOps (ArgoCD, FluxCD, Jenkins) Évaluer l’observabilité (Prometheus, Grafana, ELK/EFK) Produire un rapport d’audit, une analyse des risques et une roadmap d’amélioration Kubernetes, AWS (EKS), VMware, RBAC, CNI, ArgoCD, FluxCD, Jenkins, Helm, Prometheus, Grafana, ELK, Docker
Offre d'emploi
Ingénieur Cloud AWS / DevOps Senior (H/F)
QODEXIA
Publiée le
AWS Cloud
Docker
Dynatrace
10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. 📍 Île-de-France – Présence sur site 2 jours/semaine 📅 Démarrage : ASAP 📄 Mission longue durée 💼 Environnement : Cloud Public AWS / DevOps / Production Critique ⚠️ Candidats résidant en France uniquement. Contexte de la mission Dans le cadre du renforcement d’une équipe Cloud & DevOps au sein d’un grand compte, nous recherchons un(e) Ingénieur Cloud AWS expérimenté(e) afin d’accompagner les équipes applicatives dans l’industrialisation, l’automatisation et la sécurisation des déploiements sur des environnements cloud public AWS. Le contexte projet est exigeant et à forte visibilité, nécessitant une excellente maîtrise des pratiques DevOps, GitOps et Cloud Native.
Offre d'emploi
Data Engineer / DataOps (H/F)
RIDCHA DATA
Publiée le
CI/CD
Cloud privé
DBT
1 an
Montreuil, Île-de-France
Contexte de la mission Dans le cadre de la refonte complète d’un Data Lake stratégique, nous recherchons un profil Data Engineer orienté DataOps / MLOps afin d’accompagner la mise en place d’une plateforme data moderne, scalable et gouvernée. Le projet repose sur une architecture Medallion (Bronze / Silver / Gold) et intègre plusieurs technologies modernes liées à l’ingestion, la transformation, l’orchestration et la gouvernance des données. Le consultant interviendra à la fois sur les aspects Data Engineering , industrialisation , CI/CD , déploiement de pipelines et automatisation des workflows data . Missions principales Analyse de l’existant & Migration Cartographier les sources de données, pipelines et flux existants Participer à la définition de la stratégie de migration vers le nouveau Data Lake Concevoir les plans de bascule tout en minimisant les impacts de production Architecture & Ingestion Concevoir les couches Bronze / Silver / Gold du Data Lake Développer les pipelines d’ingestion batch et near real-time Participer à l’optimisation des flux de données et des performances Transformation & Modélisation Développer les modèles de transformation avec dbt Mettre en place les tests automatisés et la documentation technique Harmoniser les schémas et standards de données DataOps / DevOps Mettre en œuvre les pipelines CI/CD pour les traitements data Industrialiser les déploiements et automatiser les workflows Participer à la supervision, au monitoring et à l’observabilité des pipelines Collaborer avec les équipes DevOps et Infrastructure Orchestration & Gouvernance Déployer et maintenir les workflows avec Argo Workflows Participer à la gouvernance des métadonnées et de la qualité des données Contribuer à l’amélioration continue des pratiques DataOps Compétences recherchées Compétences techniques impératives Data Engineering SQL avancé dbt CI/CD & automatisation Déploiement de pipelines data Bonne culture DevOps / DataOps Technologies TrinoDB Apache Iceberg Parquet Argo Workflows Apache Superset Metabase OpenMetadata Compétences appréciées Kubernetes Docker GitLab CI/CD ou Jenkins Python Environnements Cloud & orchestration data
Mission freelance
Ingénieur DevOps & Cloud
ematiss
Publiée le
Kubernetes
6 mois
400-550 €
Île-de-France, France
Profil recherché : Maîtrise avancée de Kubernetes (architecture, administration de clusters) Connaissance de la gestion des secrets (Vault) Solides compétences réseau :reverse proxy (Traefik) authentification (Keycloak, JWT, OIDC) Très bonne compréhension de GitLab et des pipelines CI/CD Connaissance de l’approche GitOps (ArgoCD) Compétences en observabilité dans un environnement Kubernetes : Prometheus, AlertManager, Grafana Connaissances appréciées en bases de données relationnelles (PostgreSQL) Maîtrise des environnements GNU/Linux Capacité à intervenir sur : l’évolution de frameworks data science (Python) la maintenance/optimisation des pipelines CI/CD l’amélioration du logging, monitoring et traçabilité la mise en production d’outils et solutions IA Force de proposition, curiosité technologique et participation active aux POCs Rigueur, autonomie, sens du partage et qualité documentaire Anglais obligatoire Missions : Dans le cadre de cette mission, vous interviendrez au sein d’une direction Data qui accompagne les métiers et les entités internationales dans leurs projets de data science, depuis la définition des use cases jusqu’à la mise en production des modèles. L’environnement est dynamique, international, avec un esprit « start-up » intégré à un grand groupe, regroupant des data scientists (computer vision, NLP, scoring), des ML engineers et une équipe dédiée aux projets IA. Vous contribuerez à la conception, l’évolution et la haute disponibilité d’une plateforme de data science complète, comprenant : un environnement d’exploration et de développement Python développé en interne, un framework d’industrialisation des modèles, une plateforme d’exécution des modèles, un outil de community management dédié. Votre rôle consistera à assurer l’administration, l’exploitation et l’automatisation des clusters, à optimiser les images Docker et à gérer l’exécution de plusieurs centaines de containers en production. Vous porterez également la vision technique de la plateforme, piloterez les choix d’architecture, assurerez une veille technologique continue et rédigerez la documentation technique. Vous participerez à la maintenance et à l’évolution des frameworks data science, des pipelines CI/CD, de l’observabilité des plateformes, ainsi qu’à la mise en production des solutions IA. Vous serez force de proposition et interviendrez sur des POCs. Stack technique : Infrastructure / DevOps : GitLab CI/CD, GitOps (ArgoCD), cloud privé Containers : Docker, Kubernetes Langages : Python, Golang, Bash Observabilité : Prometheus, Thanos, AlertManager, Grafana Sécurité : Vault Outils DevOps : Buildkit, Artifactory, Helm, Kustomize, CUE/Timoni Services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS Systèmes : GNU/Linux Prérequis : • 7 ans d’expériences • Anglais courant (contexte international) • Kubernetes, Docker, CI/CD • ML/OPS développement IA sur Python • Certifications un + • Scripting bash from scratch
Offre d'emploi
Devops / Platform Engineer
Deodis
Publiée le
CI/CD
DevOps
Kubernetes
3 ans
50k-56k €
400-600 €
Montpellier, Occitanie
Nous recherchons un expert DevOps (Git, CI/CD, Docker, Observability) avec une maitrise des environnements Cloud Native (HELM, ArgoCD, Trivy, etc…) en particulier Kubernetes orientée Developer. Mission sur site à Montpellier, 2 jours de télétravail / semaine Vous intégrerez une équipe qui assure pour le compte de notre client, la réalisation et l’administration des plateformes d’Observabilité. Pour réaliser la mission, vous êtes à même de : Diriger la livraison de plateforme d’Observabilité pour assurer le succès de notre plateforme auprès des clients Conception de solutions, développement et intégration de produit et services d’Observabilité, architecture de plateforme et planification de la capacité dans des environnements critiques. Développement de démonstrations et de preuves de concept qui mettent en évidence la valeur de la plateforme d’Observabilité. Accompagnement dans la modélisation des données, développement et optimisation des requêtes, réglage et mise à l’échelle des clusters, en mettant l’accent sur la recherche rapide et l’analyse à l’échelle. Résoudre les problèmes de données les plus complexes de nos clients. Travailler en étroite collaboration avec les équipes d’exploitation afin d'identifier les améliorations à apporter aux fonctionnalités. Être un mentor/coach pour vos collègues. Contexte technique: Dans un contexte d’une production informatique, nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic. Cet ensemble se décompose 2 000 instances Elasticsearch, 700 instances Kibana, 70 instances APM et 600 instances Logstash pour une volumétrie de 15 Tb/j. Le développement de cette plateforme Elastic est faite au travers une chaine de fabrication permettant à l’équipe de développer les projets avec du versionning control (Git), de la CI et du déploiement via Ansible. Nous étudions aussi la possibilité de transformer le développement de cette plateforme pour un déploiement dans des plateformes Kubernetes. L’environnement technique est interconnecté à un ensemble de plateforme complexe tels que : - Plateforme Streaming - Plateforme d’orchestration de conteneurs - Plateforme de virtualisation - Applications critiques Nous exploitons la solution Grafana au travers de 4 plateformes avec 6 000 utilisateurs dont 2 000 utilisateurs mensuels sur l’environnement de production. Cet ensemble se décompose de 3800 tableaux de bord, 650 sources de données, 600 alertes. Le développement de cette plateforme Grafana est faite au travers une chaine de fabrication permettant à l’équipe de développer les projets avec du versionning control (Git), de la CI et du déploiement via ArgoCD. L’orchestration de la plateforme est réaliser par une offre CA-GIP Kubernetes. L’environnement technique est interconnecté à un ensemble de plateforme complexe tels que : - Plateforme d’orchestration de conteneurs - Applications critiques
Mission freelance
Data Engineering (IA/ML) - Sénior
Espritek
Publiée le
Apache Spark
Big Data
Docker
3 ans
Paris, France
Contexte de la mission Amundi Technology recherche un profil Data Engineer Senior orienté plateformes Data & IA afin d’accompagner la montée en puissance de son socle Data/ML. La mission s’inscrit au sein de l’équipe DAT, responsable des plateformes Data, IA/ML et des environnements Kubernetes du groupe. Le consultant interviendra dans un contexte très orienté production et scalabilité, avec une forte proximité avec les équipes d’ingénierie de production. L’objectif n’est pas uniquement de conseiller, mais d’intervenir concrètement sur les problématiques techniques, les optimisations de plateformes et l’industrialisation des usages Data/IA. Informations clés • Localisation : Paris 15e • Démarrage : ASAP / Mai 2026 • Durée : longue visibilité (3 ans) • Présence : 100% • Horaires : HO uniquement • Télétravail : non précisé • Type de mission : expertise opérationnelle / engineering plateforme Responsabilités principales Plateformes Data & IA • Optimisation et amélioration des plateformes Dagster et Trino en production • Analyse de performances, tuning, optimisation des usages et configurations • Conception et optimisation de pipelines Spark à forte volumétrie • Gestion des problématiques de partitionnement, formats Delta Lake / Iceberg et performance des traitements • Participation à l’évolution du socle Data/IA et aux choix d’architecture techniques • Contribution à la gouvernance technique et aux standards d’engineering Industrialisation & Scalabilité • Industrialisation des pipelines Data & ML • Mise en place des mécanismes de monitoring, observabilité et alerting • Construction des patterns de déploiement à l’échelle • Gestion des problématiques de montée en charge et de robustesse plateforme • Support niveau 3 sur les incidents complexes Data/IA Accompagnement technique • Accompagnement des équipes Data Science et Développement • Pair-working et rôle de référent technique opérationnel • Réalisation de POCs et veille technologique autour des plateformes Data & IA Environnement technique Data / Big Data • Dagster • Trino • Apache Spark • Hive • Delta Lake / Iceberg • Superset • OpenMetadata Cloud / Infra • Kubernetes • Rancher RKE • AKS Azure • Docker DevOps / Observabilité • ArgoCD • Jenkins • Grafana • Prometheus • Sysdig Langages • Python • Go Versioning / Storage • GitLab • Artifactory • S3 Compétences indispensables • Très forte expertise sur des plateformes Data en production • Expertise Dagster (ou équivalent orchestration Data) • Expertise Trino / moteurs distribués • Solide maîtrise Apache Spark et optimisation de pipelines Big Data • Bonne connaissance Delta Lake / Iceberg / Hive • Expérience réelle de problématiques de scaling plateforme • Très bon niveau Python • Bonne maîtrise Linux / Unix Compétences appréciées • Kubernetes / Docker • Azure AKS • GitOps / Infrastructure as Code • MLOps • Go ou Java
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
287 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois