Trouvez votre prochaine offre d’emploi ou de mission freelance Helm
Offre d'emploi
SRE DevOps
Dans le cadre du renforcement des équipes d’exploitation et d’ingénierie, mon client souhaite intégrer un SRE / DevOps Engineer chargé d’assurer la fiabilité, la performance et la disponibilité des environnements de production, tout en accompagnant les équipes projets dans l’automatisation et l’industrialisation des déploiements. L’objectif est double : Fiabiliser et monitorer les plateformes applicatives et data en production, Automatiser et rationaliser les processus de build, déploiement et supervision. Les missions sont de : Mettre en œuvre et maintenir les chaînes CI/CD (GitLab CI, Jenkins, Azure DevOps, etc.) Assurer la supervision , l’ observabilité et la gestion des incidents (Prometheus, Grafana, ELK, Datadog…) Concevoir et maintenir l’ infrastructure as code (Terraform, Ansible, Helm, etc.) Gérer et sécuriser les environnements conteneurisés (Kubernetes, Docker, OpenShift) Automatiser les déploiements applicatifs et optimiser les pipelines de livraison continue Collaborer étroitement avec les équipes de développement pour garantir la stabilité et la scalabilité des services Contribuer à la culture DevOps et à la montée en compétence des équipes internes
Offre d'emploi
Ingénieur DevOps Cloud Senior – Déploiement d’applications IA générative (H/F)
Offre d’emploi : Ingénieur DevOps Cloud – Déploiement d’applications IA générative (H/F) Lieu : Toulouse Télétravail : Non Contrat : Nature du contrat à définir Rémunération : Selon profil et expérience Démarrage : ASAP Expérience requise : profil confirmé de plus de 5 ans d'expérience en DevOps & Cloud Contexte de la mission Nous recherchons un Ingénieur DevOps Cloud pour un projet stratégique auprès d’un grand acteur industriel. La mission consiste à déployer et industrialiser des applications d’IA générative sur les trois environnements Cloud internes du client : 1 Cloud basé sur Microsoft Azure , 1 Cloud basé sur Google Cloud Platform , 1 Cloud souverain 100% interne Vous interviendrez en étroite collaboration avec le Tech Lead IA et les équipes internes afin de garantir des déploiements robustes, sécurisés et industrialisés. Rôle & Missions principales Déployer des applications d’IA générative développées en interne ou publiques (Docker) sur les 3 Clouds du client Réaliser les déploiements et la configuration via Kubernetes et Helm Industrialiser les déploiements avec des pipelines GitLab CI Adapter les solutions aux spécificités des environnements Cloud internes Mettre en place du monitoring applicatif (RAM, CPU, usage disque, erreurs, temps de réponse, volumétrie de requêtes…) avec Grafana ou solutions natives Gérer le code, les scripts et fichiers Helm sous Git Documenter les bonnes pratiques, capitaliser les retours d’expérience (REX) et contribuer à l’amélioration continue Stack technique Clouds : Azure (TDP), GCP (S3NS), Cloud souverain interne Conteneurisation & orchestration : Docker, Kubernetes, Helm CI/CD : Git, GitLab CI Monitoring : Grafana (ou équivalent disponible sur plateforme) IA générative : intégration et adaptation de modèles/applications
Offre d'emploi
Data Engineer Python
Contexte & Objectif de la mission Nous recherchons pour notre client du secteur bancaire un Data Engineer confirmé sur Python. Vous interviendrez en binôme avec le développeur en place sur la conception, le développement et la mise en qualité des flux de migration, tout en garantissant la robustesse et la fiabilité du code déployé. Rôles & Responsabilités Participer aux analyses techniques et au cadrage des besoins de migration/reconsolidation issus des différentes squads. Concevoir et implémenter des solutions data conformes aux bonnes pratiques d’architecture et de développement. Réaliser les développements Python / SQL et les tests associés (unitaires, non-régression). Mettre en œuvre les traitements d’ingestion et de streaming de données (Kafka, SFTP, Dataflow, DBT). Assurer le support technique aux équipes d’homologation et de production. Maintenir les applications du périmètre en condition opérationnelle. Rédiger la documentation technique et assurer un reporting régulier de l’activité. Collaborer activement avec les équipes QA, DevOps et DataOps dans un environnement CI/CD (GitLab, Kubernetes). Environnement technique Python – SQL – Kafka – GCP (BigQuery, Dataflow, Cloud Storage) – DBT – Looker – GitLab – Docker – Kubernetes – Terraform – Helm – Kustomize – Shell – CSV/JSON/XML
Mission freelance
Data analyst-Data Engineer (H/P)
Description du poste : Nous recherchons un(e) Data Analyst pour intervenir au sein de la Cellule Qualité Fixe (CQF) de Bouygues Telecom. Le rôle consiste à produire des analyses à partir de datasets constitués sur les plateformes Big Data, préparer et nettoyer les données, et les rendre disponibles pour les datascientists. Vous développerez également des tableaux de bord de suivi des KPI via Tableau. Missions principales : Exploiter et superviser la plateforme Big Data (monitoring Wifi des Box). Assurer le suivi des KPI et mettre en œuvre de nouveaux indicateurs. Investiguer les incidents et coordonner les actions avec les fournisseurs et les équipes internes. Développer des scripts Scala / Spark pour préparer et nettoyer les données. Gérer la sécurité, les sauvegardes et le déploiement des correctifs. Piloter les évolutions de la plateforme (hardware, applicatifs, architecture réseau). Superviser et maintenir la plateforme Data en microservices (Kubernetes/OpenShift). Déployer et gérer les applicatifs via Helm et GitLab. Administrer les utilisateurs, les buckets et les règles de gestion du datalake. Développer des dashboards Tableau et générer des KPI pour l’équipe.
Offre d'emploi
Ingénieur Devops / INFRASTRUCTURE_CLOUD_SERVICES
Descriptif du poste : Ingénieur DevOps / Infrastructure Cloud Services Dans le cadre d'un contexte à la fois OnPremise et Cloud dédié pour un établissement bancaire, au sein d'un pôle d'expertise : Standardisation et automatisation des processus de déploiement pour améliorer l'efficacité et réduire les erreurs manuelles Optimisation de l'infrastructure en exploitant l'infrastructure as code (IAC) afin d'assurer la cohérence et la répétabilité des déploiements Renforcement de la sécurité en intégrant des contrôles et des bonnes pratiques dans les produits d'automatisation que l'on met à disposition des équipes de Production Facilitation de l'intégration et le déploiement continu (CI/CD) en intégrant les outils de gestion de pipeline et d'artefacts Garantissent de la scalabité des infrastructures en optimisant le déploiement sur Kubernetes et Openshift Infrastructure As Code avec Terraform : Développent des modules Terraform pour la gestion des ressources Cloud Automatisation et visionnement du provisionning des infrastructures Configuration et automatisation avec Ansible : Développement des playbooks Ansible pour configurer les services et applications Déployement et suivi des mises à jour des configurations sur les serveurs Placement des mécanismes de bascule en cas de perte d'infrastructure Gestion des artefacts avec Artifactory : Uniformisation du stockage et la gestion des artefacts utilisés pour les déploiements Mettre en place des stratégies de versionning et de nettoyage automatique Placement de l'intégration et le contrôle de l'usage des artefacts dans les pipelines CI/CD Déploiement avec Helm : Développement et maintien des charts Helm pour le déploiement des applications sur Kubernetes et Openshift Automatisation de la mise à jour des releases Helm pour garantir la cohérence des applications
Offre d'emploi
Ingénieur Devops
Descriptif du poste : Ingénieur DevOps Le poste vise une prestation technique pour installation/migration/support/automatisation des applications au sein du Technology Office d'un groupe bancaire majeur. Missions principales : Phase d'étude : Accompagnement et orientation des intervenants (CDP, architecture et sécurité) Apport d'expertise sur les technologies utilisées Compréhension des résultats de scan de sécurité sur diverses vulnérabilités Contribution à la compréhension du schéma d'architecture Notions de sécurité requises : scan Xray, Sysdig, Tanium Connaissances technologies : Nginx, Drupal PHP, Apache Tomcat, Java Phase d'implémentation : Contribution à la mise en œuvre du projet technique sur environnements de production et non-production Réalisation des tests et validation des environnements Mise en place de Pipeline CI/CD Gestion des espaces DevOps avec : CI/CD : GitLabCI, Digital AI, Jenkins, ArgosCD Cloud : IBM Cloud (PaaS/IaaS) Conteneurisation : Kubernetes, Openshift, Chart Helm, Docker Gestion des secrets : HVAULT Gestion des bases de données en mode service (PostgreSQL, Oracle, SQL Server, MongoDB)
Offre d'emploi
Intégrateur DevOps - Nantes (F/H)
Tu veux rejoindre un projet d’envergure? Tu aimes travailler au croisement du développement et de la production? Aubay Grand Ouest cherche un(e) Ingénieur Intégration Applicative/DevOps pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. 🎯 Tes responsabilités : Intégré(e) à une squad agile, Tu seras un acteur clé du cycle de vie applicatif, de la conception à la mise en production: Prendre en charge des projets de bout en bout : études, conception, déploiement et suivi post-mise en production. Mettre en place et fiabiliser les environnements avec Terraform et outils associés. Définir et automatiser les pipelines CI/CD via Jenkins, GitLab et Digital AI. Assurer l’intégration des images Docker dans les écosystèmes Kubernetes. Garantir la résilience et la stabilité des produits en production, en contribuant activement à la résolution d’incidents. Déployer et améliorer les outils de supervision et de monitoring (Dynatrace, ServiceNow, ELK). Industrialiser les opérations récurrentes via Ansible (redémarrages, purges, sauvegardes, etc.). Collaborer sur des projets transverses (automatisation, migrations techniques, améliorations continues). 🧰 Ton environnement technique Conteneurisation & orchestration : Docker, Kubernetes, Helm Infrastructure as Code : Terraform, Ansible CI/CD : GitLab, Jenkins, Digital AI Supervision : Dynatrace, ServiceNow, ELK Méthodologie : Agile (Scrum/SAFe)
Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Offre d'emploi
DevOps (H/F)
Vos missions ? Intégré(e) à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Devops (H/F). Vous serez en charge des missions suivantes : - Savoir développer, configurer, déployer et tester les différents automatismes - Maitriser les principes de base d'intégration - Savoir développer du code informatique - Maitriser la mise en place de procédures et outils d'exploitabilité et d'observabilité permettant de garantir la disponibilité attendue des solutions/produits/services - Savoir évaluer les risques et impacts techniques lors d'une mise en production - Savoir gérer les mises en production des évolutions des solutions/produits/services - Savoir configurer et déployer des applications dans le Cloud - Identifier, dès la phase d'idéation, avec les concepteurs et les développeurs, les éléments permettant l'exploitabilité, la performance et la supervision sur tout le cycle de vie des produits - Automatiser et industrialiser dans une logique « DEVOPS » pour servir le déploiement continu - Contribuer à, et garantir, l'exploitabilité et l'observabilité des produits - Préconiser les éléments liés au Capacity planning - Contribuer à l'amélioration continue du produit La Stack Technique : - Déploiements Kubernetes - Industrialisation et automatisation CI/CD - Bases de données (Postgre) - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins - Testing-Performance : Jmeter, Postman
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Architecte OpenShift – Migration Kubernetes vers OpenShift
Contexte du poste : Dans le cadre d’un programme stratégique de transformation Cloud , notre client recherche un Architecte OpenShift afin d’accompagner la migration de plateformes Kubernetes vers OpenShift 4.x sur un environnement Cloud Privé à grande échelle. L’objectif est de concevoir, industrialiser et sécuriser la nouvelle plateforme OpenShift, tout en garantissant la résilience, l’automatisation et la conformité aux standards du groupe. Le poste est rattaché à la direction Infrastructure & Cloud , en lien direct avec les équipes Réseau, Sécurité et DevOps . Missions principales : Concevoir et documenter l’architecture cible OpenShift 4.x (HLD / LLD). Participer à la migration et à la modernisation des clusters Kubernetes existants. Définir les standards d’architecture (naming, sécurité, réseau, PRA, monitoring). Intégrer la plateforme OpenShift au Cloud Privé (VMware, OpenStack ou Bare Metal). Déployer et maintenir les outils d’automatisation : Ansible, Terraform, ArgoCD, Tekton, GitOps . Renforcer le modèle de sécurité de la plateforme : Kyverno, NetworkPolicies, Secrets Management, Quay Registry . Collaborer étroitement avec les équipes Cloud, Réseau et Sécurité pour garantir la cohérence technique. Accompagner les équipes internes dans la montée en compétence sur les bonnes pratiques OpenShift. Compétences techniques requises : Maîtrise approfondie de Red Hat OpenShift 4.x (ACM, Operators, IngressControllers, Monitoring, Logging). Bonne connaissance de Kubernetes, Docker, Helm, Rancher . Solide expérience sur les environnements Cloud Privé (VMware, OpenStack, Nutanix). Automatisation et IaC : Ansible, Terraform, Tekton, ArgoCD, GitLab CI/CD . Sécurité et conformité : RBAC, IAM, Vault, Secrets, NetworkPolicies, politiques de durcissement . Bonne compréhension des architectures multi-DC et des pratiques de PRA / PCA . Profil recherché : Expérience de 8 à 15 ans en architecture Cloud ou Infrastructure. Expertise confirmée sur OpenShift et Kubernetes en production. Capacité à évoluer dans un environnement complexe et à fort niveau d’exigence. Bon sens de la communication et capacité à fédérer plusieurs équipes techniques. Certifications Red Hat (RHCE / EX280 / RHCA) fortement appréciées.
Mission freelance
Directeur de Projet Openshift
Nous recherchons un Directeur de Projet Plateforme Openshift confirmé pour intervenir chez un grand acteur du secteur bancaire au sein d’un environnement multi-clients : banque de détail, assurance, banque de marché, asset management, etc. Vous serez intégré(e) à une équipe experte en containerisation (Openshift / Kubernetes) , chargée de concevoir, maintenir et faire évoluer une plateforme d'envergure. Vos principales missions : Concevoir, déployer et faire évoluer une plateforme Openshift (sur VMs et Baremétal) Mettre en place un écosystème complet et cohérent : Intégration AD / authentification & autorisation Supervision (monitoring / alerting / logging) Packaging (HELM), développement d'opérateurs Intégration CI/CD (GitLab, Jenkins, Artifactory) Automatiser les services via Ansible et GitOps Contribuer au développement de services à valeur ajoutée autour de la containerisation Accompagner les utilisateurs dans l’adoption de l’offre Openshift Assurer le MCO et la gestion de la capacité des plateformes Participer à la gestion des incidents et à l'amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.