Find your next tech and IT Job or contract Azure Kubernetes Service (AKS)

Your search returns 17 results.
Contractor

Contractor job
Ingénieur Azure Kubernetes (AKS)

Published on
Azure Kubernetes Service (AKS)

1 year
Paris, France
Hybrid
Nous recherchons pour notre client grand compte un ingénieur azure kubernetes. Votre mission : Rejoindre l'équipe K8SaaS responsable de la conception et du déploiement de clusters AKS managés, incluant extensions Kubernetes préconfigurées, sécurisation avancée Azure et mise à disposition d'API. 💼 Missions principalesDéveloppement et automatisation Développer et maintenir des chartes Helm et scripts Terraform/Terragrunt pour automatiser le déploiement d'applications conteneurisées sur AKS Configurer et gérer les ressources cloud Azure (Virtual Networks, Private Endpoints, DNS, Load Balancers) Sécurité Assurer la sécurité des configurations des clusters Kubernetes via Azure Active Directory Integration, Microsoft Defender, Network Security Groups et Azure Conditional Access Observabilité Travailler sur l'observabilité des applications et clusters Kubernetes avec Datadog, Prometheus, Fluentbit et Log Analytics Support et collaboration Diagnostiquer et résoudre les incidents de niveau 3 liés aux services déployés sur les Landing Zones Azure Collaborer avec les équipes DevOps pour optimiser le déploiement et la gestion des clusters AKS Participer activement aux cérémonies agiles en tant que membre clé de l'équipe Rédiger et maintenir une documentation technique complète
Contractor
Permanent

Job Vacancy
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)

Published on
Azure Kubernetes Service (AKS)
CI/CD

3 years
Ile-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Contractor

Contractor job
Ingénieur Système(H/F)

Published on
Azure Kubernetes Service (AKS)
CI/CD
Docker

6 months
Ile-de-France, France
Je recherche pour mon client un Ingénieur Système (H/F) . Rejoignez une structure de recherche de pointe pour accompagner les plateformes scientifiques dans l’exploitation optimale des ressources de calcul et de stockage haute performance. Vous jouerez un rôle clé dans l’évolution des environnements HPC et Big Data, en lien étroit avec les équipes Infrastructure et Recherche. Vos responsabilités Support aux utilisateurs scientifiques : accompagner les bio-informaticiens dans l’usage des outils informatiques, former aux bonnes pratiques, assurer un support technique de qualité. Évolution des environnements : évaluer, tester et proposer des solutions technologiques innovantes (matériel, logiciel, pipelines). Intégration continue & automatisation : mettre en place des outils modernes (CI/CD, déploiement automatisé, assurance qualité). Collaboration transverse : travailler avec les équipes Infrastructure pour l’implémentation des composants systèmes. Suivi en production : garantir la qualité de service des applications en environnement recherche et clinique. Compétences techniques requises Systèmes Unix/Linux : administration, scripting, déploiement. HPC & calcul distribué : clusters, Slurm, gestion de pipelines. Stockage massif & Big Data : performance, scalabilité. CI/CD & automatisation : GitLab CI, Kubernetes, outils SysOps. Atouts supplémentaires : Cloud / IaaS. Conteneurisation (Docker, microservices). Bases de données NoSQL. Expérience dans un contexte scientifique ou de recherche.
Contractor

Contractor job
Tech Lead Tanzu Kubernetes

Published on
Azure Kubernetes Service (AKS)
DevSecOps

3 months
400-670 €
Ile-de-France, France
Contexte: Le client recherche un Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description: Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables: Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables. Compétences: Expertise sur Kubernetes (en particulier sur Tanzu Kubernetes Grid (TKG) et Amazon EKS.) Maîtrise des chaînes CI/CD (Jenkins, ArgoCD, etc.). Solide expérience en DevOps et GitOps. Maîtrise des outils Infrastructure as Code. Connaissances avancées en sécurisation, résilience et supervision des environnements Kubernetes. Capacité à transmettre les connaissances et à accompagner la montée en compétences des équipes internes. Compétences clés: Obligatoire: - Kubernetes Important: - Systèmes & OS / LINUX - GitHub - Deploiement via TKGS - VMware VSphere - Tanzu Kubernetes Intéressant: - Jenkins - Méthode agile - G
Contractor

Contractor job
Cloud engineer Azure

Published on
Azure Kubernetes Service (AKS)

6 months
Paris, France
Hybrid
CONTEXTE DE LA MISSION Pickmeup recherche un(e) Cloud Engineer expérimenté(e) pour accompagner l'évolution et l'optimisation de son infrastructure cloud sur Azure. MISSIONS PRINCIPALES Conception, déploiement et maintenance d'infrastructures cloud sur Microsoft Azure Gestion et optimisation de clusters Kubernetes via Azure Kubernetes Service (AKS) Automatisation de l'infrastructure as Code avec Terraform (HashiCorp) Configuration et administration de pipelines CI/CD via Azure DevOps et Bitbucket Monitoring et observabilité des applications avec Kiali et Jaeger Garantir la sécurité, la scalabilité et la performance de l'infrastructure Documentation technique et accompagnement des équipes STACK TECHNIQUE Cloud : Microsoft Azure Orchestration : Kubernetes, Azure Kubernetes Service (AKS) IaC : Terraform (HashiCorp) CI/CD : Azure DevOps, Bitbucket Observabilité : Kiali, Jaeger
Contractor

Contractor job
Software Engineer Sénior JS (H/F)

Published on
Azure Kubernetes Service (AKS)
Node.js
Vue.js

2 years
100-450 €
Lille, Hauts-de-France
Hybrid
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Software Engineer Sénior JS (H/F) à Lille, France. Contexte : ● Expert backend (nodejs), avec une appétence pour le front ● Bases solides en devops (ci/cd, k8s, observabilité ...) ● Connaissances avancées en architecture et en design de logiciel ● Être à l’aise pour travailler dans un environnement agile ● Faire preuve d’une autonomie forte et démontrer une volonté constante de s'améliorer ● Faire preuve de leadership pour animer des sujets au sein de l’équipe, mais aussi prendre le lead sur des sujets cross-équipe ● Avoir un état d’esprit positif, axé sur la résolution de problèmes ● Posséder une aisance en anglais, tant à l’écrit qu’à l’oral. Les missions attendues par le Software Engineer Sénior JS (H/F) : ● Expert backend (nodejs), avec une appétence pour le front ● Bases solides en devops (ci/cd, k8s, observabilité ...) ● Connaissances avancées en architecture et en design de logiciel ● Être à l’aise pour travailler dans un environnement agile ● Faire preuve d’une autonomie forte et démontrer une volonté constante de s'améliorer ● Collaboration au développement : Concevoir et développer des fonctionnalités robustes, en assurant la pérennité technique des projets et en résolvant des problèmes complexes. ● Définition et exécution des tâches : Piloter la définition et le refinement des tâches, en garantissant leur clarté et leur alignement avec les objectifs du projet. ● Application des bonnes pratiques : Définir et appliquer des normes élevées de code et d’architecture, conduire des revues et promouvoir les meilleures pratiques auprès de l’équipe. ● Innovation et amélioration continue : Améliorer les produits et les processus en explorant de nouvelles technologies, outils et méthodologies et en proposant des solutions innovantes pour relever les défis techniques. ● Participation à la prise de décision : Contribuer aux décisions techniques grâce à son expertise et proposer des améliorations et solutions efficaces pour l’équipe. ● Amélioration des compétences : Se tenir à jour sur les technologies pour renforcer ses compétences, anticiper les tendances du marché et innover sur les projets. ● Mentorat et Support de l'Équipe : Assurer le mentorat des membres moins expérimentés de l'équipe, en partageant ses connaissances et favorisant leur développement.
Contractor

Contractor job
Tech Lead Kubernetes / Tanzu / EKS – Expert Infrastructures Cloud & On-Prem (VMware, GitOps, IaC)

Published on
AWS Cloud
Azure Kubernetes Service (AKS)
CI/CD

2 years
400-630 €
Ile-de-France, France
Hybrid
Description du poste Nous recherchons un Tech Lead Kubernetes confirmé , expert en administration de clusters et en intégration Tanzu Kubernetes Grid (TKG) au sein d’environnements VMware Cloud Foundation (VCF) . Vous interviendrez sur des infrastructures critiques, à la fois on-premise et AWS , au sein d’un grand groupe en pleine modernisation de ses plateformes. Vos principales missions : Administrer, maintenir et faire évoluer les clusters Kubernetes (Tanzu / EKS). Piloter la migration vers TKG 2.x / VCF 9 et garantir la disponibilité des socles techniques. Optimiser la sécurité, la performance et la résilience des environnements Kubernetes. Intégrer et fiabiliser les pipelines CI/CD (Jenkins, ArgoCD) dans une démarche IaC et GitOps . Automatiser le déploiement des environnements Kubernetes et définir les rôles RBAC. Accompagner et faire monter en compétences les équipes internes sur Kubernetes et GitOps . Contribuer à la documentation technique et aux architectures Cloud .
Contractor

Contractor job
CHEF DE PROJET DEVOPS 100% TT

Published on
Azure Kubernetes Service (AKS)
Gitlab
Jenkins

6 months
400-690 €
Paris, France
Remote
Missions principalesPilotage Piloter les projets DevOps de bout en bout (planification, coordination, suivi, reporting, respect des délais et budgets). Animer les comités projets et assurer la communication entre les équipes techniques et les parties prenantes. Garantir l’intégration des pratiques DevOps au sein des projets et accompagner les équipes dans leur adoption. Définir et suivre les indicateurs de performance (KPI) liés aux pipelines CI/CD et proposer des axes d’amélioration continue. Technique Concevoir, maintenir et optimiser les pipelines CI/CD (Jenkins, GitLab CI/CD). Administrer et faire évoluer les environnements conteneurisés et orchestrés (Docker, Kubernetes). Automatiser les déploiements et contribuer au monitoring et à la supervision des environnements. Intégrer les bonnes pratiques de sécurité dans les pipelines et contribuer aux démarches SecOps (scans de vulnérabilités, conformité). Collaborer étroitement avec les équipes de développement, d’architecture et de sécurité.
Contractor

Contractor job
Administrer Devops plateforme Data Azure

Published on
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 year
100-600 €
Paris, France
Hybrid
Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage
Contractor

Contractor job
Ingénieur Linux / Kubernetes / CI-CD Senior – Transformation Cloud & Automatisation - ASSURANCE

Published on
Ansible
Argo CD
AWS Cloud

2 years
400-520 €
Ile-de-France, France
Hybrid
Dans le cadre d’un vaste projet de transformation Cloud , nous recherchons un Ingénieur Linux confirmé , expert en conteneurs et automatisation CI/CD , pour renforcer une équipe transverse au sein de la Direction de la Production Informatique . Vous interviendrez sur des projets stratégiques à forte visibilité, au cœur de la modernisation des socles techniques et des environnements applicatifs. Vos principales responsabilités : Administrer et maintenir les environnements Linux et Kubernetes (AKS, TKGS) Créer et maintenir des pipelines CI/CD (Jenkins, GitLab, ArgoCD, Vault) Concevoir et gérer des images Docker pour les différents projets Automatiser les déploiements et configurations via Ansible et scripting Diagnostiquer et résoudre les incidents complexes de niveau 3 Participer à la mise en œuvre de solutions cloud et à la stabilisation des environnements Collaborer avec les équipes Etudes, Production et Sécurité dans une démarche DevOps Documenter les solutions techniques et assurer un partage de connaissance au sein de l’équipe Compétences techniques attendues : Linux (expert) Kubernetes, Docker, Helm, Harbor Jenkins, GitLab CI, ArgoCD, Vault Ansible, scripting Shell/Python Azure / AWS (AKS ou équivalent) GitOps, CI/CD, automatisation
Contractor

Contractor job
Data Architecte (Secteur Energie / Industrie)

Published on
Apache Airflow
Apache Spark
Architecture

12 months
690-780 €
Rennes, Brittany
Hybrid
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Contractor

Contractor job
Expert Dév Python &IA ML- MLOps Sparrow

Published on
AI
Amazon S3
API

12 months
550-660 €
Ile-de-France, France
Hybrid
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Contractor

Contractor job
Architecte Entreprise SI (Secteur Energie / Industrie)

Published on
Amazon S3
Apache Kafka
API

12 months
700-810 €
Paris, France
Hybrid
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Contractor

Contractor job
Intégrateur API Plateforme d’Échanges / API Manager

Published on
Active Directory Domain Services (AD DS)
Ansible
Apache Kafka

12 months
550-590 €
Ile-de-France, France
Hybrid
Fiche de poste – Intégrateur Plateforme d’Échanges / API Manager Intitulé du poste Intégrateur API / API Manager (intégration inter-applicative) Niveau : Confirmé + Équipe Produit : Middleware / Plateforme d’échanges Méthodologie : Agile / SAFe (sprints de 2 semaines, PI de 3 mois) Environnement hybride : On Premises / Cloud AWS Contexte de la mission Nous recherchons un profil d’ Intégrateur Plateforme d’échanges / API Manager pour renforcer une équipe produit en charge du middleware et des solutions d’intégration inter-applicatives. L’équipe développe et maintient une offre de type PaaS interne , permettant aux équipes de développement d’utiliser en autonomie : une plateforme d’échanges basée sur WSO2 API Manager 4.2, Boomi et RabbitMQ ; des solutions de monitoring et d’observabilité telles que Logstash, OpenSearch, Prometheus et Grafana. Les outils sont déployés en environnement hybride et doivent être utilisables en self-service par les équipes produit. Missions principales : Participer activement aux cérémonies agiles (daily, sprint review, PI planning) et contribuer à l’instruction des features et user stories liées à la plateforme d’échanges. Participer aux évolutions de la plateforme : intégration de nouveaux outils, ajout de fonctionnalités ou optimisation des composants existants. Maintenir et diffuser les bonnes pratiques et patterns d’intégration inter-applicative. Accompagner les équipes produit dans la prise en main et l’utilisation en autonomie de la plateforme d’échanges. Assister les équipes dans l’instruction et la réalisation des processus d’échanges (Boomi, API WSO2, files RabbitMQ). Accompagner la conception et le prototypage d’API REST, en conformité avec le standard OpenAPI 3.0. Traiter les demandes récurrentes liées à la plateforme (droits d’accès, ouvertures de flux, paramétrages techniques, etc.). Participer au support sur incident, à l’analyse et à la résolution de bugs sur la plateforme et les échanges inter-applicatifs. Contribuer à la mise à jour et à l’amélioration continue de la documentation technique et fonctionnelle. Assurer une veille technologique sur les sujets d’intégration, d’API management et de monitoring.
Contractor

Contractor job
Data Engineer - Azure

Published on
Architecture
Azure
Azure Data Factory

1 year
400-570 €
Ile-de-France, France
Hybrid
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Contractor

Contractor job
DevOps Senior AWS - Terraform

Published on
Agile Scrum
Ansible
AWS Cloud

12 months
480-550 €
Puteaux, Ile-de-France
Hybrid
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Cloud, nous recherchons un Ingénieur Cloud/DevOps Senior pour renforcer l’équipe en charge des infrastructures et des pipelines CI/CD. Le consultant interviendra sur un environnement AWS complexe (multi-accounts, data, sécurité) et contribuera à l’automatisation, la fiabilisation et l’optimisation des plateformes et des déploiements. 🛠️ Missions principales Infrastructure as Code (Terraform) : conception et industrialisation de modules (VPC, IAM, ALB, RDS, EKS, etc.). Kubernetes (EKS) : déploiement, upgrade, gestion des policies de sécurité (OPA, PSP, NetworkPolicies). CI/CD & DevOps : refonte et standardisation des pipelines (GitLab CI / GitHub Actions / Jenkins), intégration de contrôles qualité (SonarQube, scanners de sécurité, secrets management). Sécurité et conformité : intégration Vault, durcissement des images, scans supply chain (Nexus/Harbor, Trivy, tfsec, Checkov). Observabilité & SRE : mise en place et optimisation de la supervision (Prometheus, Grafana, OpenTelemetry, Datadog/Dynatrace), suivi de SLOs et FinOps. Support et expertise : accompagnement des équipes projets, définition des bonnes pratiques, contribution à la culture DevOps/SRE. ✅ Compétences recherchées Techniques : Cloud : AWS (EC2, S3, RDS, EKS, Lambda, IAM, Route53, etc.) IaC : Terraform (modules réutilisables, best practices), Ansible Conteneurisation & Orchestration : Kubernetes (EKS, Helm, Istio, OpenShift) , Docker CI/CD : GitLab CI, GitHub Actions, Jenkins, ArgoCD, GitOps Sécurité : Vault, scanners de vulnérabilités, durcissement images, tagging et gouvernance AWS Observabilité : Prometheus, Grafana, Loki, OpenTelemetry, Datadog, Dynatrace Langages : Python, Bash, Go (un plus) Soft skills : Capacité à travailler en environnement Agile (Scrum/SAFe). Proactivité, force de proposition et autonomie. Bon relationnel pour accompagner et former les équipes. 🎓 Certifications appréciées AWS Solutions Architect / DevOps Engineer / Security Specialty Certified Kubernetes Administrator (CKA) / Application Developer (CKAD) HashiCorp Terraform Associate
17 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us