Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 54 résultats.
Freelance

Mission freelance
Expert Cloud

Publiée le
Cloud

24 mois
400-800 €
Paris, France
Télétravail partiel
PROPULSE IT recherche pour un de ses clients un Expert Cloud Dans le cadre de notre transformation numérique (Go2Cloud) et de l'optimisation des infrastructures d'hébergement d'applications web et des sites internet, notre client recherche un Expert Cloud capable de concevoir, déployer et maintenir des architectures cloud robustes et sécurisées. Ce rôle clé impliquera une forte expertise technique ainsi qu'une capacité à accompagner les équipes dans la modernisation des applications et l'industrialisation des processus. Cette modernisation a pour objectif la préparation à la migration d'une API architecturée en MicroServices (Symfony PHP / API REST) actuellement sur un hébergement « OnPremise » chez un hébergeur (Virtual Machine VMWare) vers un hébergement dans le Cloud public. Les compétences du profil sont demandées sur l'environnement Microsoft Azure ET sur Amazon Web Services. En effet un arbitrage interne est en cours pour déterminer le Cloud cible, cet arbitrage aura été effectué pour le début de cette mission. L'expert Cloud interviendra sur les aspects suivants : 1. Modernisation des applications - Accompagnement à la transformation applicative (microservices, conteneurisation, mise en place de workflows) - Refactorisation / Réarchitecture des applications nécessaires - Migration d'applications vers le cloud en respectant les meilleures pratiques du Cloud Provider choisi (Azure ou AWS) 2. Déploiement et exploitation des plateformes Cloud public - Mise en place et gestion des infrastructures dans la landing zone Cloud public - Supervision et optimisation des performances des environnements cloud - Maitrise des coûts générés par les ressources cloud 3. Conception et architecture cloud - Définition d'architectures scalables, sécurisées et résilientes - Gestion de la sécurité et des bonnes pratiques sur le Cloud public 4. Orchestration et gestion des conteneurs - Déploiement et administration d'applications conteneurisées - Maîtrise de Kubernetes et des services Cloud public associés - Automatisation et gestion des workflows via des outils adaptés 5. Automatisation et DevOps - Mise en œuvre d'outils Infrastructure as Code : Terraform, Helm, ArgoCD - Développement et optimisation des pipelines CI/CD (DevOps, GitLab CI/CD) - Déploiement et gestion des stratégies GitOps
Freelance

Mission freelance
Tech Lead Kubernetes

Publiée le
AWS Cloud
Kubernetes

12 mois
400-550 €
Malakoff, Île-de-France
Télétravail partiel
Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables.
CDI
Freelance

Offre d'emploi
Plateform Engineer confirmé (H/F) – Domaine Spatial – Toulouse

Publiée le
DevOps

12 mois
48k €
400-550 €
Toulouse, Occitanie
Télétravail partiel
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Plateform Engineer confirmé pour intervenir chez un de nos clients dans le domaine spatial 💻💼 à Toulouse. Nous cherchons un·e Platform Engineer confirmé·e qui a déjà les mains dans Kubernetes au quotidien, qui maîtrise Terraform et ArgoCD, et qui a contribué à la mise en place d’une Developer Platform ou d’un portail Backstage. En bref : quelqu’un qui aime créer des environnements où les développeurs peuvent aller vite, en sécurité, et sans friction. Voici un aperçu détaillé de vos missions 🎯 : * Concevoir et opérer une plateforme de delivery : CI/CD, provisioning, observabilité, sécurité… * Automatiser le déploiement et la gestion d’environnements cloud (souvent Kubernetes + IaaS/PaaS). * Intégrer, optimiser et maintenir des outils comme Backstage , Crossplane , ArgoCD (GitOps). * Mettre en œuvre et promouvoir l’ Infrastructure as Code (Terraform, Helm, Ansible…). * Travailler main dans la main avec les équipes de dev pour améliorer l’UX développeur, la productivité et la fiabilité. * Déployer des standards d’observabilité : logs, métriques, traces. * Garantir des pipelines sécurisés et une plateforme robuste.
Freelance
CDI

Offre d'emploi
Administrateur Kubernetes Senior LYON

Publiée le
Grafana
Kubernetes
Red Hat Satellite

12 mois
40k-45k €
400-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
un Administrateur Kubernetes Senior Localisation : Lyon 7e – 2 jours de télétravail / semaine Démarrage : début janvier 2026 Durée : 6 mois minimum Statut : freelance ou partenaire TJM : 530 € Nous renforçons une équipe en charge d’une plateforme d’orchestration de conteneurs on-premise basée sur Kubernetes. Le profil recherché doit disposer d’au moins 7 ans d’expérience et d’une forte expertise en environnement de production. Vos missions • Administrer et faire évoluer des clusters Kubernetes à grande échelle • Participer à la conception et au déploiement d’une nouvelle stack (Rancher / ArgoCD) • Contribuer à l’automatisation, l’industrialisation et la sécurité de la plateforme • Assurer le MCO, la résolution d’incidents et le support aux équipes projets • Accompagner les équipes applicatives dans les bonnes pratiques cloud-native • Participer aux astreintes N3 après montée en compétence Compétences attendues • Linux avancé, scripting bash / Python • Kubernetes, Docker, Helm, Rancher, Kubespray • CI/CD : Git, Ansible, ArgoCD • Monitoring : Prometheus, Grafana, Loki, Victoria Metrics • Notions réseaux : DNS, VPN, firewall, load balancer • Stockage : SAN / NAS • Bonus : Cilium, BGP, AWS / Azure / GCP Livrables Documentation technique, procédures, dossiers d’architecture, code, RFC/CAB, mise à jour Jira. Environnement Kubernetes 1.30, RedHat 9, Calico, Cilium, Traefik, Spring-boot tools, Grafana stack, Artifactory, Trident.
CDI

Offre d'emploi
Ingénieur Cloud DevOPS (F/H)

Publiée le

40k-45k €
Lille, Hauts-de-France
Ingénieur Cloud DevOPS (F/H) - Lille Dans le cadre d'une prestation stratégique chez un client grand compte, nous recherchons un Ingénieur Cloud DevOps confirmé pour intégrer une squad agile dédiée à la modernisation des infrastructures, à l'automatisation des processus de delivery et à la sécurisation des environnements Cloud. Objectifs et principales activités : Architecture & Automatisation Concevoir des architectures Cloud scalables, sécurisées et résilientes. Définir et implémenter des standards d'automatisation via des outils d'Infrastructure as Code (Terraform, Ansible). Participer à la modélisation des environnements et à leur documentation technique. CI/CD & Delivery Déployer et optimiser des pipelines CI/CD robustes et intégrés aux workflows de développement (GitLab CI, Jenkins, ArgoCD). Intégrer des tests automatisés (linting, sécurité, performance) dans les chaînes de build et de déploiement. Assurer la traçabilité, la fiabilité et la fluidité des livraisons en environnement multi-projets. Containerisation & Orchestration Administrer des clusters Kubernetes (AKS, EKS, GKE) et gérer les workloads conteneurisés (Docker). Implémenter des stratégies de scaling automatique, de gestion des secrets et de haute disponibilité. Participer à la mise en place de microservices et à leur supervision. Monitoring, Observabilité & Sécurité Mettre en œuvre des solutions de monitoring et d'observabilité (Prometheus, Grafana, ELK, Datadog). Définir des alertes proactives et des tableaux de bord pour suivre les indicateurs clés. Collaborer avec les équipes sécurité pour intégrer des pratiques DevSecOps : scans de vulnérabilités, IAM, chiffrement. Collaboration & Expertise Travailler en méthodologie Agile/Scrum, en lien direct avec les développeurs, architectes et Product Owners. Participer aux revues de code, aux démarches d'amélioration continue et aux rituels d'équipe. Être force de proposition sur les évolutions techniques, les choix d'outils et les optimisations d'infrastructure.
CDI
Freelance

Offre d'emploi
Architecte Kubernetes (H/F)

Publiée le
Architecture
Docker
Kubernetes

3 ans
63k-69k €
600-630 €
Île-de-France, France
Nous recherchons un expert pour concevoir, sécuriser, déployer et automatiser une nouvelle plateforme conteneurs OpenShift pour notre client dans le secteur bancaire . La mission inclut également l’analyse de l’existant Kubernetes et la préparation d’une migration éventuelle vers OpenShift , en garantissant la sécurité, la conformité et la robustesse exigées par le secteur financier. Responsabilités Concevoir l’architecture complète : clusters, réseau, sécurité, RBAC, gouvernance IT et conformité bancaire Déployer, configurer et administrer les clusters OpenShift Automatiser le provisioning, les déploiements et le RUN via Ansible / IaC / CI-CD / GitOps Assurer le MCO : maintenance, monitoring, incidents, patching et mises à jour critiques Collaborer avec les équipes Architecture, Sécurité, Réseau et métiers dans un environnement réglementé Compétences techniques OpenShift : installation, configuration et administration Kubernetes : namespaces, RBAC, opérateurs, monitoring, gestion des secrets Docker / OCI CI/CD & GitOps : Jenkins, ArgoCD, GitHub Actions Automatisation / IaC : Ansible, Terraform Sécurité & DevSecOps : Vault, scans de vulnérabilités, durcissement clusters, conformité bancaire Monitoring : Prometheus, Grafana Expérience en architecture et plateformes conteneurs dans des environnements critiques ou réglementés
Freelance

Mission freelance
Un Administrateur Kubernetes à Lyon

Publiée le
Administration linux

6 mois
340-440 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses client, Un Administrateur Kubernetes à Lyon. Mission Nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs: services standardisés, as code,provisioning rapide, rationalisation des ressources, scalable, etc... (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Profil recherché : Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage : connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, ... Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP... Les activités se déroulent autour de 3 grands axes : Le «build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif : Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «run» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à lapréparation des PI planning ... Technologies & outillage mis en oeuvre : Kubernetes (kubeadm, rke2) 1.30; RedHat 9; f5 Big-IP; Calico; Cilium; Traefik 2 & 3; Docker ; Kyverno; Victoria Metrics; Prometheus; Grafana ; Loki ; Helm ; Chaos Mesh; Ansible ; Git; Artifactory; Kubespray, rke2, Rancher, Argo CD, Trident L’équipe est actuellement composée de 5 experts techniques et d’un Product Owner, accompagné d’un Scrum master et d’un Teachnical Leader Kubernetes?; fonctionne selon le modèle SAFe (Agilité à l’échelle). Les activités assurées peuvent concerner : Définir une architecture cible opérationnelle et résiliente / Réaliser des maquettes et des recettes afin de valider les choix, être force de proposition pour des évolutions Porter des arbitrages sur les solutions techniques et fonctionnelles à embarquer / S’assurer de la pertinence des briques choisies dans le contexte, comme de leur pérennité Assurer les montées de versions des différentes briques de la plate-forme et résoudre les problèmes (au sens ITIL) Accompagner et promouvoir l’approche micro-services des applicatifs et les bonnes pratiques induites / Assurer une veille technologique, autour des solutions retenues à minima.
Freelance

Mission freelance
Tech Lead Tanzu Kubernetes

Publiée le
Azure Kubernetes Service (AKS)
DevSecOps

3 mois
400-670 €
Île-de-France, France
Contexte: Le client recherche un Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description: Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables: Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables. Compétences: Expertise sur Kubernetes (en particulier sur Tanzu Kubernetes Grid (TKG) et Amazon EKS.) Maîtrise des chaînes CI/CD (Jenkins, ArgoCD, etc.). Solide expérience en DevOps et GitOps. Maîtrise des outils Infrastructure as Code. Connaissances avancées en sécurisation, résilience et supervision des environnements Kubernetes. Capacité à transmettre les connaissances et à accompagner la montée en compétences des équipes internes. Compétences clés: Obligatoire: - Kubernetes Important: - Systèmes & OS / LINUX - GitHub - Deploiement via TKGS - VMware VSphere - Tanzu Kubernetes Intéressant: - Jenkins - Méthode agile - G
Freelance
CDD

Offre d'emploi
Ingénieur de Production Kubernetes (H/F)

Publiée le
AWS Cloud
DevOps
Kubernetes

1 an
65k-70k €
400-460 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : La supervision et l’exploitation des clusters Kubernetes (on-prem ou OpenShift). L’ industrialisation des déploiements via CI/CD, GitOps et Infrastructure as Code. L’ amélioration continue des performances, de la sécurité et de la traçabilité. La gestion du MCO / RUN : diagnostics, résolution d’incidents, capacity planning. La collaboration étroite avec les équipes DevOps, sécurité et applicatives. VOTRE MISSION : Gérer et maintenir les clusters Kubernetes en production (Kubernetes natif ou OpenShift). Automatiser les déploiements applicatifs avec Helm, ArgoCD, Jenkins ou GitLab CI/CD. Superviser les environnements via Prometheus, Grafana, ELK/EFK, Dynatrace ou équivalents. Assurer la sécurité des environnements conteneurisés : secrets management, durcissement, audit et conformité. Participer aux changements et mises en production dans le cadre ITIL (CAB, incidents, problèmes). Contribuer aux projets de migration et de modernisation des infrastructures vers Kubernetes. Développer des scripts d’automatisation (Bash, Python, Ansible, Terraform). Documenter les procédures et diffuser les bonnes pratiques auprès des équipes projet.
Freelance
CDI

Offre d'emploi
Coach Agile / DevOps & engineering practices

Publiée le
Docker
Terraform

1 an
40k-45k €
400-600 €
Île-de-France, France
Télétravail partiel
Coach Agile / DevOps & engineering practicesContexte Au sein d'une grande banque internationale, la division Securities Services est l'un des principaux acteurs mondiaux du métier titres. Nos collaborateurs, présents dans 34 pays et 5 continents, proposent des solutions intégrées à l'ensemble des acteurs du cycle d'investissement (intermédiaires financiers, investisseurs institutionnels, grandes entreprises et émetteurs). L'équipe transverse de transformation accompagne les équipes IT vers un état d'esprit et des pratiques centrées sur l'agilité et le DevOps notamment au travers d'une utilisation poussée de la Toolchain et en favorisant les pratiques d'engineering pour inciter les équipes à atteindre un niveau de qualité et résilience élevé. Technologies et outils Technologies : Java, Angular, Python, .Net Outils : Maven, Gradle, npm, Docker, Gitlab/CI, Jenkins, Sonar, Fortify, Nexus IQ, ArgoCD, Digital AI Release, Terraform
CDI
CDD
Freelance

Offre d'emploi
Ingénieur DevOps GCP/MLOps

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps

1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Freelance

Mission freelance
SysOps Kubernetes

Publiée le
Kubernetes

6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour?: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs?: services standardisés, as code, provisioning rapide, rationalisation des ressources, scalable, etc… (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting?: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage?: connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, … Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP… Les activités se déroulent autour de 3 grands axes : Le build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif?: Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «?run?» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises?; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants?: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à la préparation des PI planning … T
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Freelance

Mission freelance
Développeur Python Angular

Publiée le
Angular
Python

12 mois
550 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Développeur Python Angular pour l'un de ses clients dans le secteur Asset Management. Missions: - L'analyse et la conception technique afin de répondre aux besoins du métier - Garantie de la maintenance corrective et évolutive des développements - Développement de nouvelles fonctionnalités en Python/TypeScript/Sql, avec forte courverture en tests unitaires (>80%) - Développement de front end web en Angular - Application des standards de développements & Craftsmanship (Design, Code quality, REST APIs, performances, TDD, BDD...) - Application et automatisation/amélioration du workflow (GitHub flow, IaC, code reviews, CI/CD) - Participation active aux mises en production (devops) - Garantie du support de production (“you build it, you run it”): monitoring via ArgoCD / Grafana / splunk - Participation aux cérémonies agile (Planning / Daily Scrum / Demonstration / Retrospective / Guild / Chapter ...)
Freelance
CDI

Offre d'emploi
Développeur Python / Angular

Publiée le
Angular
Finance
PostgreSQL

3 ans
Paris, France
Télétravail partiel
Le développeur Python / Angular aura en charge : L'analyse et la conception technique afin de répondre aux besoins du métier Garantie de la maintenance corrective et évolutive des développements Développement de nouvelles fonctionnalités en Python/TypeScript/Sql, avec forte courverture en tests unitaires (>80%) Développement de front end web en Angular Application des standards de développements & Craftsmanship (Design, Code quality, REST APIs, performances, TDD, BDD...) Application et automatisation/amélioration du workflow (GitHub flow, IaC, code reviews, CI/CD) Participation active aux mises en production (devops) Garantie du support de production (“you build it, you run it”): monitoring via ArgoCD / Grafana / splunk Participation aux cérémonies agile (Planning / Daily Scrum / Demonstration / Retrospective / Guild / Chapter ...)
54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous