Trouvez votre prochaine offre d’emploi ou de mission freelance Helm
Offre d'emploi
Expert DevOps CI/CD
🔎 Recherche Consultant DevOps / Expert CI/CD Nous recherchons un Consultant Expert CI/CD pour accompagner un grand acteur de l’assurance dans un projet de transformation stratégique autour du Cloud Hybride et de la modernisation des cycles de vie applicatifs. 👤 Profil recherché : Expertise confirmée en CI/CD (10 ans d’expérience minimum) Maîtrise des outils : Git Bitbucket, Jenkins, Artifactory, Sonar, ArgoCD, Tekton, Helm, OpenShift, Ansible, Terraform, Docker, Linux… Expérience en intégration et automatisation sur des environnements complexes (Java, JS, etc.) Connaissance de Release et des approches as code (Release as code, Infra as code, Policy as code, GitOps) Une expérience de modernisation/mainframe est un atout fort 💡 Qualités attendues : autonomie, capacité d’analyse, esprit collaboratif, goût du partage et de la communication. 📍 Mission longue, basée en Île-de-France, démarrage rapide.

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Senior DevOps Engineer (kub, terraform, Azure cloud)
Organisation publique qui développe une plateforme technologique sécurisée pour faciliter l’accès à des données à des fins de recherche et d’innovation. Ce projet vise à soutenir des initiatives d’intérêt général en lien avec la santé publique, en garantissant un haut niveau de sécurité et de confidentialité. 🔧 Missions principales Au sein de l’équipe en charge de l’environnement sécurisé, vos responsabilités incluent : Infrastructure as Code (IaC) : conception, déploiement et maintenance via Terraform, Terragrunt, Packer et Ansible Orchestration Kubernetes : gestion des clusters, création et maintien des charts Helm, déploiement des applications Automatisation CI/CD : mise en place et optimisation des pipelines d’intégration et déploiement continus Sécurité : respect des normes de sécurité liées aux données sensibles, mise en œuvre des contrôles d’accès et protection des données Veille technologique : suivi des évolutions cloud, DevOps et sécurité Collaboration : travail en interaction avec les équipes produit, architecture, data science et opérations
Mission freelance
DevOps Niort
Dans le cadre du développement et de la modernisation d’un site institutionnel, nous recherchons un Ingénieur DevOps pour renforcer l’un de nos CDS, au sein d’une System Team intégrée au service digital . Vous participerez à la mise en œuvre et au maintien en conditions opérationnelles des environnements critiques (CRM PEGA et applications satellites), tout en accompagnant les évolutions liées au site web. Vos missions incluront la gestion et l’administration des environnements Linux Red Hat, la configuration et l’orchestration des infrastructures (Kubernetes, Docker, Helm charts), l’industrialisation des déploiements applicatifs via GitLab CI/CD et Ansible, ainsi que l’intégration et l’exploitation de solutions distribuées (Cassandra, ElasticSearch, Kafka, RabbitMQ). Vous contribuerez activement à la sécurisation et à l’optimisation des flux (API Gateway, Load Balancer, Firewall) et au support des équipes internes. En étroite collaboration avec les proxys Ops et les équipes produits , vous serez un acteur clé de la réussite des projets, garantissant la fiabilité, la performance et la disponibilité des environnements.

Mission freelance
FREELANCE – Ingénieur DevOps (H/F)
Dans le cadre d’une dynamique de croissance et de transformation numérique, nous constituons un vivier de profils freelance DevOps pour répondre à des besoins récurrents ou ponctuels chez nos clients, majoritairement situés à Rennes et Nantes. Les missions proposées pourront varier selon les environnements techniques, mais l’objectif est de contribuer à l’automatisation, la fiabilisation, et la scalabilité des infrastructures et chaînes CI/CD. Missions Participer à la mise en place ou à l’optimisation d’infrastructures Cloud (AWS, Azure, GCP) ou On-Premise Définir et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions, etc.) Automatiser les déploiements via des outils d’IaC (Terraform, Ansible, etc.) Gérer la conteneurisation et l’orchestration (Docker, Kubernetes, Helm) Mettre en œuvre des outils de monitoring et de log (Prometheus, Grafana, ELK, etc.) Assurer la sécurité, la supervision et la disponibilité des systèmes Collaborer avec les équipes Dev et Sec dans une logique DevSecOps

Mission freelance
FREELANCE – Ingénieur DevOps (H/F)
Dans le cadre d’une dynamique de croissance et de transformation numérique, nous constituons un vivier de profils freelance DevOps pour répondre à des besoins récurrents ou ponctuels chez nos clients, majoritairement situés à Rennes et Nantes. Les missions proposées pourront varier selon les environnements techniques, mais l’objectif est de contribuer à l’automatisation, la fiabilisation, et la scalabilité des infrastructures et chaînes CI/CD. Missions Participer à la mise en place ou à l’optimisation d’infrastructures Cloud (AWS, Azure, GCP) ou On-Premise Définir et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions, etc.) Automatiser les déploiements via des outils d’IaC (Terraform, Ansible, etc.) Gérer la conteneurisation et l’orchestration (Docker, Kubernetes, Helm) Mettre en œuvre des outils de monitoring et de log (Prometheus, Grafana, ELK, etc.) Assurer la sécurité, la supervision et la disponibilité des systèmes Collaborer avec les équipes Dev et Sec dans une logique DevSecOps

Offre d'emploi
Ingénieur MLOPs DevOps H/F
Nous recherchons un Ingénieur MLOPs DevOps , vous rejoindrez l’équipe en charge du développement et de la mise en production de modèles prédictifs stratégiques pour l’entreprise. Votre rôle consistera à concevoir et maintenir des infrastructures fiables, scalables et sécurisées pour supporter les activités de data science. Vous serez responsable de l’automatisation des déploiements via des pipelines CI/CD, du développement de scripts et d’outils en Python, et de l’orchestration d’applications dans des environnements Kubernetes. Vous travaillerez en étroite collaboration avec les data scientists et data engineers pour industrialiser les workflows de machine learning, faciliter l’expérimentation, le suivi des modèles et optimiser leur déploiement en production. Vos missions incluront : - Concevoir, automatiser et maintenir des pipelines CI/CD pour les applications et modèles. - Développer et maintenir des outils en Python pour l’industrialisation des processus. - Gérer la conteneurisation et l’orchestration avec Kubernetes (obligatoire). - Assurer la sécurité, la supervision et la performance des systèmes en production. - Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Helm). - Accompagner les équipes de data science sur les aspects MLOps (tracking d’expériences, gestion des modèles, monitoring).

Offre d'emploi
Architecte Cloud Azure & DevOps
Pour le compte de l’un de nos clients, nous recherchons un Architecte Cloud Azure & DevOps afin de contribuer à la mise en place et à l’évolution d’une plateforme de services digitaux partagés . Cette plateforme, hébergée sur Azure , est destinée à toutes les entités du groupe et vise à offrir à leurs clients une expérience self care fluide, cohérente et efficace . Objectifs de la mission : Participer à la conception de l’architecture Cloud de la plateforme. Industrialiser et automatiser le déploiement des services via des pratiques DevOps. Garantir la scalabilité , la sécurité et la résilience des environnements. Accompagner les équipes projet dans l’utilisation de la plateforme. Assurer une veille technologique et contribuer à l'amélioration continue des outils et processus. Environnement technique : Cloud : Azure Infrastructure as Code : Terraform Orchestration : Kubernetes, Helm Conteneurisation : Docker Systèmes : Linux Réseau : Firewall CI/CD : Azure DevOps Pipelines, GitHub Actions, Jenkins Monitoring & Logs : Azure Log Analytics, ELK Stack

Offre d'emploi
DevOps (H/F)
Vos missions ? Intégré(e) à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Devops (H/F). Vous serez en charge des missions suivantes : - Savoir développer, configurer, déployer et tester les différents automatismes - Maitriser les principes de base d'intégration - Savoir développer du code informatique - Maitriser la mise en place de procédures et outils d'exploitabilité et d'observabilité permettant de garantir la disponibilité attendue des solutions/produits/services - Savoir évaluer les risques et impacts techniques lors d'une mise en production - Savoir gérer les mises en production des évolutions des solutions/produits/services - Savoir configurer et déployer des applications dans le Cloud - Identifier, dès la phase d'idéation, avec les concepteurs et les développeurs, les éléments permettant l'exploitabilité, la performance et la supervision sur tout le cycle de vie des produits - Automatiser et industrialiser dans une logique « DEVOPS » pour servir le déploiement continu - Contribuer à, et garantir, l'exploitabilité et l'observabilité des produits - Préconiser les éléments liés au Capacity planning - Contribuer à l'amélioration continue du produit La Stack Technique : - Déploiements Kubernetes - Industrialisation et automatisation CI/CD - Bases de données (Postgre) - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins - Testing-Performance : Jmeter, Postman
Offre d'emploi
Site Reliability Engineer (SRE)
Contexte de la mission Dans le cadre du renforcement de l’équipe Infrastructure & Production, notre client recherche un Site Reliability Engineer afin de garantir la disponibilité, la performance, la résilience et la scalabilité de ses plateformes critiques. L’objectif est de renforcer les pratiques DevOps, d’automatiser les opérations et d’améliorer l’observabilité des systèmes dans un environnement agile et exigeant. Missions principales Assurer la stabilité , la résilience et la scalabilité des plateformes applicatives. Automatiser le déploiement, le monitoring, l’alerte et la résolution d’incidents (infrastructure as code, CI/CD, scripts…). Mettre en place des outils d’ observabilité : logs, métriques, traces. Participer à la gestion des incidents majeurs et à la rédaction des post-mortems. Collaborer avec les équipes Dev pour améliorer la fiabilité des applications en production (pratiques SRE). Gérer l’ infrastructure cloud (AWS, Azure ou GCP). Participer à la définition des SLI/SLO/SLAs . Participer à la mise en place ou au renforcement des pratiques de sécurité (IAM, chiffrement, scans…).
Offre d'emploi
MLOps &DevOps (Kubernetes & Ray Expert) (H/F)
Notre client, un acteur du secteur de l'assurance et l'Intelligence Artificielle , recherche un Ingénieur MLOps &DevOps (Kubernetes & Ray Expert) (H/F) pour construire l’infrastructure de nouvelle génération pour des systèmes intelligents et distribués — conçue pour gérer des flux de travail complexes, des agents d’IA et des charges de travail intensives en données à grande échelle. Nous recherchons un ingénieur MLOps, DevOps et logiciel alliant de solides compétences en développement logiciel à une expertise approfondie en Kubernetes et Ray. Si vous êtes passionné par l’expérience développeur, l’excellence opérationnelle et l’orchestration à grande échelle, nous voulons vous rencontrer. Vos missions : \- Diriger la conception, le déploiement et la mise à l’échelle de la plateforme d’exécution distribuée, qui alimente le traitement de documents en temps réel, les pipelines d’IA et les microservices. \- Écrire du code de production, construire des systèmes CI/CD, provisionner des clusters cloud-native et collaborer directement avec les ingénieurs et chercheurs en IA pour faire de l’infrastructure un véritable produit, et non simplement une fonction de support. \- Concevoir, déployer et maintenir une infrastructure basée sur Kubernetes (AKS, EKS, GKE ou autogérée). \- Développer, surveiller et optimiser des clusters Ray pour des charges distribuées à grande échelle et de longue durée. \- Créer des outils et services pour prendre en charge des workflows évolutifs et l’orchestration de tâches en temps réel. \- Automatiser le provisionnement d’infrastructure avec Terraform, Helm et des pipelines CI/CD (GitHub Actions, Azure DevOps, etc.). \- Écrire du code Python et Bash de niveau production pour la gestion du cycle de vie des clusters, la soumission de jobs, l’observabilité et le débogage. \- Assurer la supervision et la mise en place d’alertes pour la santé du système, la latence et le débit (Prometheus, Grafana, Logfire, OpenTelemetry). \- Collaborer étroitement avec les ingénieurs backend, les équipes ML et les architectes de plateforme pour fournir des services fiables et évolutifs. Atouts \- Expérience avec le CI/CD, l’infrastructure-as-code (Terraform, Helm) et les workflows conteneurisés (Docker). \- Expérience dans le débogage et la mise à l’échelle d’applications à forte concurrence et gourmandes en ressources. \- Maîtrise des plateformes cloud, en particulier Azure (réseau et identité de charge de travail). \- Aisance dans un environnement dynamique de type start-up, avec un fort degré d’autonomie. \- Connaissance des frameworks de calcul distribué. \- Familiarité avec les stacks d’observabilité (Grafana, Tempo, Loki, OpenTelemetry). \- Expérience en MLOps, pipelines de streaming ou orchestration d’agents IA. \- Contributions à des projets open source liés à DevOps, Kubernetes ou Ray.

Mission freelance
SRE/Observabilité
Votre mission : Vous intégrerez l’équipe Observabilité en tant qu’expert Solution pour apporter votre expertise technique et fonctionnelle: - Vous contribuez activement aux choix stratégiques dans le cadre de la refonte de la plateforme - Vous assistez les utilisateurs au quotidien dans l’implémentation de leur Observabilité, et dans l’exploitation des outils à leur disposition. Vous détectez et challengez les mauvaises pratiques, vous maximisez le ROI des solutions pour les utilisateurs. - Vous intervenez ponctuellement en renfort auprès des utilisateurs en situation de crise - Vous évangélisez les solutions mises en place par l’équipe et favorisez l’adhésion des clients internes: formations, ateliers, présentations - Vous construisez et faites vivre des templates d’observabilité à mettre à disposition des Feature Teams - Vous contribuez activement à l’amélioration de l'intégration et des usages des solutions d'Observabilité SaaS sur lesquelles s’appuie l’équipe: suivi des usages, maîtrise des coûts, respect des basiques de sécurité, etc… Environnement et compétences techniques: - Maîtrise des piliers de l’observabilité: APM, log management, metrics - Bonne maîtrise de Datadog - Maîtrise de la stack Grafana - Connaissances OpenTelemetry - Maitrise Kubernetes / Helm - Connaissances GCP - Connaissances en langages de programmation (Java, Go, python, …) et DB (PostgreSQL, MongoDB) - CI/CD - Culture des sujets connexes à l’Observabilité: - SLO - SRE - Paging - Incident management

Offre d'emploi
Data Engineer – Java / Spark SCALA (F/H)
Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien 🛠 · Développer et optimiser des pipelines de données massifs avec Spark et Scala . · Assurer l’ingestion, le nettoyage et l’enrichissement des données en vue de leur exploitation. · Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. · Contribuer à l’industrialisation et à la mise en production des traitements Big Data . · Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. · Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique 🖥 · Langages : Java (J2EE / JDK 17), Scala · Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet · Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven · Messaging & Streaming : Kafka, Redis · Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock · API : Web Services Rest

Mission freelance
Développeur Java / Big Data
A ce titre, nous cherchons un profil possédant la double compétence Data engineer et développeur backend Les activités attendues sont: - Ecrire les jobs spark de manipulation des collections de données pour des pipelines d'ingestion, de nettoyage, de preparation, d'enrichissement, de croisement des données - Développer des µService d'accès au données (API REST, serveur graphQL) pour mettre à disposition des applications internes ou directement à des clients externe - Développer jusqu'à la mise en production les traitements Big Data - Assurer la maintenance corrective des solutions Big Data développées - Collaborer avec l’ensemble des interlocuteurs concernés, transverses et métier Compétences attendues Java (J2EE / Jdk 21) Scala Spark / Spark Streaming Parquet Trino Delta Lake Kafka Docker – Kubernetes – Helm - Argo Workflow Web Services Rest / graphQL TU (JUnit / Mockito / PowerMock / ScalaMock) Git / Maven Les capacités d'innovation et de proposition seront appréciées. La maitrise de l'anglais est indispensable. La mission est prévue sur le reste de l'année 2025

Offre d'emploi
DATA ENGINEER GCP x PYTHON
Je recherche pour un de mes clients un Data Engineer Python x GCP : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Compétences techniques : • Langages de programmation : Python, Scripts Shell • Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XM
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trajet domicile travail en voiture de fonction c'est usage perso ??
- Masquer infos entreprise Pappers, Google etc
- Reconversion professionnelle cyber
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Reconversion professionnelle dans la cybersécurité
- Mes dashboards finissent au placard ? Besoin de vos retours