Trouvez votre prochaine offre d’emploi ou de mission freelance Argo CD à Paris
Votre recherche renvoie 8 résultats.
Mission freelance
DevOps Cloud Expert Openshift
Cherry Pick
Publiée le
Argo CD
CI/CD
Cloud
24 mois
550-600 €
Paris, France
Dans le cadre d’un programme de transformation cloud d’envergure, l équipe SRE de notre client est en charge du Build d’une plateforme OpenShift . Le projet est actuellement en phase de build from scratch , avec une mise en production cible à l’horizon 2028 . L’objectif est d’accompagner la migration d’applications on-premise vers un environnement cloud sécurisé et industrialisé. Missions principales En tant qu’ expert OpenShift , vous interviendrez sur l’ensemble du cycle de vie de la plateforme : Concevoir, builder et déployer des clusters OpenShift Sécuriser, configurer et administrer les clusters Mettre en œuvre l’ Infrastructure as Code et les pratiques GitOps Participer à la construction de la toolchain DevOps Développer et maintenir des Helm Charts pour le déploiement applicatif Accompagner les équipes applicatives dans la migration de leurs applications vers OpenShift Assurer un support transverse auprès des équipes projets Intervenir dans un contexte SRE (fiabilité, disponibilité, automatisation) Participer à des environnements sensibles, notamment à forte exigence de sécurité et de résilience Environnement technique Plateforme : OpenShift / Kubernetes Cloud : Cloud privé IBM , avec ouverture possible vers le cloud public DevOps / GitOps : Argo CD Helm Toolchain en construction Conteneurisation : Docker Automatisation & IaC
Mission freelance
Data Engineer
Nicholson SAS
Publiée le
Apache Hive
Apache Spark
Argo CD
6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Mission freelance
Senior DevOps & Cloud Engineer
OGESSI
Publiée le
API
Argo CD
AWS Cloud
6 mois
Paris, France
Contexte mission Expert technique moteur de la transformation numérique, le Senior DevOps & Cloud Engineer conçoit et pilote des architectures cloud complexes, sécurisées et scalables. Véritable mentor pour les équipes de développement, il garantit l'excellence opérationnelle et l'optimisation continue des coûts et de la performance des infrastructures. Missions Concevoir des architectures cibles sur AWS (Serverless, micro-services) en intégrant les contraintes FinOps et Sécurité. Piloter l'industrialisation des déploiements via des approches avancées d'Infrastructure as Code (Terraform, Terragrunt, CDK). Orchestrer des environnements conteneurisés critiques sous Kubernetes et OpenShift. Optimiser les toolchains CI/CD (Jenkins, GitLab CI) pour réduire le "Time-to-Market" des produits. Définir la stratégie de monitoring et d'observabilité (Datadog, Dynatrace, ELK) pour anticiper les incidents de production. Acculturer les parties prenantes aux principes DevSecOps et assurer la veille technologique. Compétences attendues Expertise Cloud & Infrastructure as Code (IaC) Maîtrise avancée d'AWS : Une expertise approfondie est requise sur les services fondamentaux et avancés, notamment Lambda, API Gateway, VPC et la gestion fine des identités avec IAM. Industrialisation avec Terraform & Terragrunt : Capacité à concevoir des infrastructures complexes, modulaires et scalables. Développement d'Infra avec AWS CDK : Maîtrise du déploiement d'infrastructure via le code (TypeScript/Python). Atouts : Une connaissance du Multi-cloud (Azure ou GCP) ainsi que des outils comme Pulumi ou CloudFormation sera fortement valorisée. Orchestration, Conteneurisation & Middleware Kubernetes & OpenShift : Expertise dans le déploiement et la gestion d'environnements conteneurisés critiques. Docker : Maîtrise de la création et de l'optimisation des images de conteneurs. Gestion des flux : Expérience sur Kafka pour les architectures orientées événements. Atouts : Maîtrise d'un Service Mesh (Istio) et des outils de déploiement GitOps comme ArgoCD. CI/CD, Automatisation & Qualité Pipelines complexes : Conception et maintenance de chaînes CI/CD sous Jenkins (maîtrise des Shared Libraries/Groovy) et GitLab CI. Gestion de configuration : Utilisation experte d'Ansible pour l'automatisation des déploiements et de la configuration. Tests de performance : Capacité à piloter des campagnes de tests avec Gatling. Observabilité, Scripting & Data Monitoring de pointe : Mise en place et exploitation de solutions comme Datadog, Dynatrace ou la Stack ELK pour assurer une visibilité totale sur les systèmes. Développement & Scripting : Maîtrise de Python, Shell et TypeScript pour l'automatisation et le tooling interne. Bases de données : Gestion des bases PostgreSQL et services managés type RDS. Atouts : Expérience avec OpenTelemetry, Prometheus ou Grafana.
Offre d'emploi
Ingénieur DevOps Ansible
Etixway
Publiée le
Ansible
Dynatrace
Gitlab
12 mois
50k-55k €
500-550 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring kube-prometheus-stack (Prometheus Opertaor, Alertmanager) et Grafana Opertaor et mise en place des dashborads en mode GitOps en utilisant le CRD GrafanaDashboard sur un cluster RKE2 • Déploiement de Elasticsearch, Kibana et fluentd et avec l’OLM (Operator Lifecycle Managament) “ClusterLogging“ Déploiement de Dynatrace Opertaor pour le monitoring applicatif et d’infrastructure Automatisation Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Mission freelance
Expert / Architecte Kubernetes - SRE AWS / GCP
YGL consulting
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Kubernetes
12 mois
500-550 €
Paris, France
Au sein de l'équipe SRE, vous serez amené à travailler de manière autonome ou en équipe sur divers projets. Vous devez être autonome, un minimum d'expérience est demandé pour mener à bien le projet. Une très bonne maîtrise des technologies citées est obligatoire. - Expert / Architecte Kubernetes (K8S) - SRE - AWS (EKS, SQS, Aurora) - GCP Google Cloud - Docker, Ansible Terraform - Argo CD - Redis,Varnish - Grafana, Prometheus, Datadog Au sein de l'équipe SRE, vous serez amené à travailler de manière autonome ou en équipe sur divers projets. Vous devez être autonome, un minimum d'expérience est demandé pour mener à bien le projet. Une très bonne maîtrise des technologies citées est obligatoire. - Expert / Architecte Kubernetes (K8S) - SRE - AWS (EKS, SQS, Aurora) - GCP Google Cloud - Docker, Ansible Terraform - Argo CD - Redis,Varnish - Grafana, Prometheus, Datadog
Mission freelance
DevOps Engineer - SRE (H/F)
STHREE SAS pour HUXLEY
Publiée le
36 mois
600 €
Paris, France
Contexte du poste Au sein de l'équipe Site Reliability Engineering (SRE) , vous serez responsable de la fiabilité, de la performance et de la scalabilité des plateformes Cloud de l'entreprise. Vous jouerez un rôle clé dans la conception, l'automatisation et l'exploitation des environnements de production, avec un focus particulier sur les plateformes OpenShift . Responsabilités principales Opérations & Fiabilité Assurer la stabilité , la résilience et la performance des environnements Cloud et OpenShift. Participer au déploiement , au monitoring , au troubleshooting et à l' optimisation des applications en production. Contribuer à la mise en place et à l'amélioration de SLOs, SLIs et SLAs . Automatiser les opérations de production dans une logique Infrastructure as Code et GitOps . Engineering & Automatisation Développer et maintenir les pipelines CI/CD utilisant GitLab CI . Gérer l'infrastructure via Terraform , Helm , et des pratiques modernes de déploiement. Participer au design et à l'évolution de l'architecture Cloud (Public, Private, Hybrid). OpenShift & Kubernetes Administrer et opérer des clusters OpenShift (installation, upgrades, capacity planning, gestion des opérateurs, sécurité). Améliorer la fiabilité de la plateforme et accompagner les équipes de développement dans la bonne utilisation d'OpenShift. Gérer les problématiques réseau, stockage, logging et monitoring dans un environnement Kubernetes/ OpenShift. Collaboration & Culture SRE Travailler étroitement avec les équipes de développement, sécurité, infrastructure et produit. Documenter et partager les bonnes pratiques, dans une démarche d'amélioration continue. Compétences requises Techniques (Must-Have) Maîtrise avancée de Red Hat OpenShift en environnement de production. Solide expérience avec Kubernetes . Excellente connaissance des pratiquesDevOps et outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Expertise des environnements Cloud Bonne compréhension : des architectures microservices des API / REST des patterns de résilience (circuit breaker, autoscaling, etc.) Compétences additionnelles (Nice-to-Have) Expérience avec OpenShift en très forte production ou large échelle (HUGE plus). Connaissances en GitOps (ArgoCD, Flux). Expérience en sécurité Cloud (politiques RBAC, secrets management, network policies). Scripting : Python , Bash , Go (optionnel). Profil recherché 5+ ans d'expérience en DevOps / SRE. Expérience démontrée sur des environnements Cloud et Kubernetes. Solide expérience opérationnelle OpenShift (must-have).
Offre d'emploi
Tech Lead JEE
VISIAN
Publiée le
Angular
Java
1 an
40k-45k €
400-670 €
Paris, France
Descriptif du poste Projet de refonte d'une application de modélisation et de gestion de fonds de titrisation. Mission de Tech Lead en développement JEE basée à Paris. Finalisation d'un portail applicatif Intranet par le développement de différents modules nécessaires à la gestion des fonds de dette et de masse. En tant que Tech Lead, vous bénéficierez d'une grande autonomie et devrez faire preuve de force d'analyse et de proposition d'amélioration. Vous travaillerez sur plusieurs sujets critiques simultanément, avec une responsabilité sur la gestion des problématiques d'infrastructures, l'aide aux développeurs et la vérification du code. Responsabilités Développement au sein de l'équipe Définition des solutions techniques Analyse de problématiques de l'application (performance, mauvais comportement) Analyse et proposition de solutions techniques au vu du besoin métier Gestion de l'obsolescence de l'application Gestion de pipeline Jenkins et GitLabCI, Argo CD Déploiement Docker, Kubernetes Implémentation de modules au sein de l'application : Participation à la création de modules pour le système intranet permettant la modélisation et la gestion de fonds Participation à l'élaboration de nouvelles solutions techniques permettant l'ouverture de nouveaux services métiers (nouveaux périmètres de fonds, nouveaux modules comme la comptabilité) Coordination avec MOA et équipes opérationnelles pour la définition des solutions Participation à toutes les phases de vie d'un projet IT : Analyse et estimation des développements à partir de spécifications fonctionnelles Proposition et définition de solutions techniques pour les besoins fonctionnels Développement IT sur les technologies listées ci-dessous Assistance à la MOA durant la recette applicative (UAT) Aide à la préparation des documents nécessaires aux déploiements Développement sur l'outil de calcul en Python
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Cherry Pick
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- ARE, ACRE, création SARLU, IK et rémunération
- Entretien Client final
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Deux ESN me positionnent sur la même mission
- Evolution TVS et opportunité acquisition véhicule
8 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois