Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 665 résultats.
Mission freelance
POT9000 - Un PMO Sénior sur Massy
Almatek
Publiée le
Cloud
DevOps
Infrastructure
6 mois
310-480 €
Massy, Île-de-France
Almatek recherche pour l'un de ses client , Un PMO Sénior sur Massy MISSION Au sein de la Digital Factory Finance & Corporate, vous intervenez en tant que Tech Project Manager sur le projet OneCA. Vous etes garant de la structuration, de la gouvernance et du delivery du socle Data (chantier 1), source unique de donnees pour l'ensemble des chantiers du projet. Le projet OneCA vise a unifier et centraliser les reportings CA de l'entreprise : source de verite unique, automatisation de la production, fiabilisation des donnees. CHANTIERS DU PROJET Socle enrichi : source de donnees unique, centralisee et structuree Reporting CA 2.0 : rapports standardises (Tableau) + solution exploratoire (Data Insight) CA en mobilite : centralisation du pilotage CA operationnel, decomm outils historiques Previsions Smart : automatisation eclatement journalier des previsions mensuelles Consolidation automatisee : alimentation automatique des outils de consolidation France/Groupe Le chantier 1 est structurant et prerequis aux chantiers 2 a 5. ACTIVITES PRINCIPALES Definition de l'architecture cible du socle Data OneCA (avec architecte DF Finance) Structuration du delivery : gouvernance, comitologie, KPI d'avancement, JIRA Priorisation et organisation des chantiers Data en lien avec les autres chantiers Documentation du socle Data (Dataset OneCA) avec equipes metiers et Data Proposition de Dashboards / Monitoring / Alerting pour controles de coherence Pilotage du delivery : socle Data + Documentation + Monitoring/Alerting Garantir l'utilisation des bonnes sources de donnees par tous les chantiers Organisation, preparation et animation des comites techniques et transverses ENVIRONNEMENT TECHNIQUE & EXPERTISES Pilotage de l'integration de solutions dans des ecosystemes SI complexes Gestion des environnements (Dev, Recette, Production) et deploiements Coordination equipes transverses (Dev, DevOps, Securite, Infrastructures, prestataires) Anticipation et mitigation des risques techniques et dettes technologiques Strategies de tests d'integration et de non-regression PROFIL RECHERCHE Bac+5 (ecole d'ingenieur ou universite) oriente informatique ou equivalent. Experience Senior en Technical Project Management (integration). Experience dans le secteur retail / grande distribution appreciee. Communication claire et efficace en francais (ecrit et oral). Esprit d'amelioration continue, respect des delais, standards eleves. MATERIEL Poste de travail fourni par le consultant (Windows, i7/Ryzen7, 16Go RAM, SSD 256Go). Outils IA : uniquement les solutions fournies par le client. Pas d'IA externe autorisee. Presence sur site : 2 jours/semaine minimum.
Mission freelance
Ingénieur DevOps (avec background Infra) - Habilitable - Noisiel - 3 jours TT
Sopra Steria
Publiée le
Ansible
Argo CD
Gitlab
12 mois
550 €
Noisiel, Île-de-France
Le développeur en automatisation d'infrastructure système et réseau effectue les missions suivantes : - Concevoir, développer, déployer, tester et maintenir les automates, outils et API mis en œuvre - Installer, maintenir et faire évoluer la plateforme d'automatisation - Assister les équipes de production dans l'utilisation des outils d'automatisation - Diagnostiquer et analyser les dysfonctionnements/incidents sur les briques mises en œuvre - rédiger les procédures et documents d'exploitation des automates et de l'infrastructure d'automatisation - Apporter son expertise aux équipes système, réseau et sécurité et architecture - Echanger avec les clients et supports constructeurs - Qualifier et tester de nouveaux produits et technologies pouvant aider à l'automatisation des infrastructures - Effectuer une veille technologique sur le périmètre technique couvert
Offre d'emploi
DevOps SRE AZURE (CDI )
KOUKA
Publiée le
Azure
Kubernetes
Site Reliability Engineering (SRE)
40k-64k €
Île-de-France, France
• Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable.
Mission freelance
Développeur Senior Full Stack Java / Angular H/F
Inventiv IT
Publiée le
Angular
DevOps
J2EE / Java EE
3 mois
400-530 €
Île-de-France, France
Missions principales Monter en compétence sur l’architecture technico-fonctionnelle des produits Participer aux rituels Agile : daily, sprint planning, backlog, démos, rétrospectives Analyse technique, conception et développement des évolutions Prise en charge de User Stories de bout en bout Développement de nouvelles fonctionnalités et améliorations techniques Réalisation de tests unitaires, d’intégration, fonctionnels et de performance Code reviews, merge requests, refactoring et optimisation Rédaction de documentation technique Support aux déploiements et contribution au MCO Résolution d’incidents en production et communication transverse avec les équipes Compétences techniques attendues Back-end Java : Java 11 minimum, Spring Boot, JPA / Hibernate, sécurité, API REST Front-end Angular : TypeScript, composants, services, RxJS, tests Tests : unitaires, intégration, robustesse, performance (JUnit, Cucumber) Architecture & industrialisation : CI/CD, Git, Jenkins, Sonar, revue de code, refactoring Temps réel / flux : Kafka, traitements haute performance et haute disponibilité Base de données : PostgreSQL, SQL, modélisation Scripting / exploitation : Shell, Apache, monitoring (Grafana / Prometheus, Graylog)
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Offre d'emploi
Data Steward/Analyst Fleet Management & Plans de Dépose F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
SQL
Montereau-sur-le-Jard, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform
Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD
3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Mission freelance
Développeur API - Expert Python / FastAPI
Codezys
Publiée le
Angular
API
Azure
12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Mission freelance
DATA SCIENTIST
Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services
12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Mission freelance
Un Ingénieur Support Applicatif N2 – Orientation DevOps / SRE à Orléans
Almatek
Publiée le
CI/CD
Dynatrace
Java
3 mois
200-250 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Ingénieur Support Applicatif N2 – Orientation DevOps / SRE à Orléans Poste: un AE N2 / DevOps Profil Supervision N2 + Automatisation / DevOps Le profil recherché devra assurer l’activité de support N2 (qualification, analyse, diagnostic, recherche de cause, contournement, suivi des corrections avec les équipes produit), mais avec une forte valeur ajoutée sur l’industrialisation du run et l'amélioration continue. Nous attendons en particulier une sensibilité DevOps / culture SRE, avec une capacité à : Automatiser les tâches récurrentes de support (scripts, outillage, runbooks exécutables), Améliorer l’observabilité et accélérer les diagnostics (logs, dashboards, alerting), Contribuer à la réduction des incidents récurrents via RCA et actions de fiabilisation Structurer et enrichir la base de connaissance Rendre plus autonomes les clients internes et les équipes produit (observabilité, selfcare, procédures, outils de diagnostic). Compétences attendues : expérience en support applicatif N2, forte capacité d’analyse (Dynatrace), développement d'outillages (Java, Python), scripting (Bash), rigueur documentaire, et capacité à travailler en interaction avec le N1 et les équipes produits et techniques. L’objectif est de réduire la charge de support, améliorer le MTTR, et augmenter l’autonomie des équipes via automatisation + standardisation. Principaux environnements techniques : Observabilité : DYNATRACE Systèmes : LINUX Supervision : CANOPSIS Monitoring : KIBANA Serveurs web : WEBLOGIC, TUXEDO Conteneuristation : KUBERNETES (TAS, K8S) Base de données : ORACLE Ticketing : SNOW, JIRA Compétences en scripting et développement et affinités pour l'automatisation (Java / Python / Bash) DevOps : CI/CD (GITLAB) Travail collaboratif : Confluence, Mattermost, O365 Méthodologies et normes : Agile / SCRUM, CI/CD - DevOps
Mission freelance
Ingénieur de Production / DevOps–CloudOps senior
Signe +
Publiée le
Ansible
DevOps
Grafana
10 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Description détaillée de la prestation : Le consultant interviendra au sein du Centre Ops, en présentiel au moins 4 jours/semaine (100% présentiel sur les 3 premiers mois de la prestation). Il travaillera en binôme avec les équipes internes pour les former et les coacher, tout en prenant en charge certaines activités techniques, notamment : Construction des environnements via Terraform sur cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision & suivi des OS (Prometheus, Grafana, Loki, Promtail) Échanges réguliers avec les équipes de développement Contribution à la phase de définition de l’architecture du projet Apport d’expérience, cadrage technique et bonnes pratiques auprès des équipes
Mission freelance
Ingénieur de Production / DevOps–CloudOps senior H/F
Insitoo Freelances
Publiée le
Administration linux
Ansible
Azure DevOps
2 ans
385-486 €
Marseille, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur de Production / DevOps–CloudOps senior H/F à Marseille, France. Contexte : Nous recherchons pour un de nos projets un Ingénieur de Production / DevOps–CloudOps senior Le consultant interviendra au sein du Centre Ops, en présentiel au moins 4 jours/semaine (100% présentiel sur les 3 premiers mois de la prestation) Il travaillera en binôme avec les équipes internes pour les former et les coacher, tout en prenant en charge certaines activités techniques, notamment : Construction des environnements via Terraform sur cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) Supervision & suivi des OS (Prometheus, Grafana, Loki, Promtail) Échanges réguliers avec les équipes de développement Contribution à la phase de définition de l’architecture du projet Apport d’expérience, cadrage technique et bonnes pratiques auprès des équipes Techno : Compétences requises : Linux (commandes système & réseau) DevOps / Cloud privé ou public Ansible Jenkins Grafana Compétences souhaitables : Terraform Prometheus OpenStack Loki Promtail Compétences appréciées / plus‑value : GitLab Java / Maven Vault Docker / Kubernetes / Rancher Nexus SonarQube Selenium / Cucumber JMeter / ZAP
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Mission freelance
Ingénieur DEVOPS - Openshift - MLOps H/F
Insitoo Freelances
Publiée le
Artifactory
Azure Kubernetes Service (AKS)
Openshift
2 ans
295-556 €
Marignane, Provence-Alpes-Côte d'Azur
Habilitation obligatoire Les missions attendues par l' Ingénieur DEVOPS - Openshift - MLOps H/F : La mission consiste à établir, exploiter et améliorer une plateforme AI/MLOps basée sur Kubernetes / OpenShift pour supporter le cycle de vie complet des modèles ML, depuis l'expérimentation jusqu’au déploiement opérationnel. Objectifs principaux (non exhaustif) : Garantir la fiabilité , la scalabilité et la sécurité de la plateforme AI. Fluidifier le passage ML → production , en automatisant au maximum les étapes. Compétences techniques essentielles : Expertise containers Docker , orchestration Kubernetes , avec forte pratique OpenShift . Compétence DevOps : CI/CD , IaC, GitOps. Maîtrise de solutions MLOps : Kubeflow , Elyra , environnements LLM. Connaissances avancées sur les pipelines : Tekton , modèles de déploiement, Artifactory. Compétences en scripting : Python , Go . Connaissance des frameworks de Machine Learning Soft skills & exigences : Autonomie sur un environnement complexe. Capacité à intervenir sur une plateforme AI en production. Aptitude au troubleshooting multi-couches (pods, ressources, pipelines). Rigueur, sécurité et conformité dans les environnements sensibles Maintenance & Opérations Exploitation quotidienne d’une plateforme AI basée sur kube/OCP . Application des mises à jour , correctifs et évolutions des composants plateforme. Déploiement & Supervision Déploiement des modèles ML dans l’environnement OCP. Automatisation des tâches de scaling, monitoring et gestion du cycle de vie. CI/CD & Pipelines Conception, construction et maintenance de pipelines CI/CD avec Tekton ou Kubeflow . Gestion des workflows d’entraînement, réentraînement et inference. Support & Troubleshooting Diagnostic des crashes pods, problèmes de ressources, échecs pipelines. Résolution des incidents liés à la production de modèles. Customisation & Sécurité Rebuild et customisation de composants plateforme (workbenches, runtimes). Garantie de la conformité & sécurité sur l’ensemble des environnements. Teletravail : 2j/5
Offre d'emploi
Platform Engineer Elastic Expérimenté
Deodis
Publiée le
DevOps
Elasticsearch
Site Reliability Engineering (SRE)
36 mois
40k-45k €
480-530 €
Montpellier, Occitanie
Mission à Montpellier, 3 jours sur site, 2 jours de télétravail / semaine En tant que Platform Engineer, au cœur du dispositif d’ingénierie de plateforme, aura un rôle clé dans la construction, l’évolution et la sécurité et l’opérabilité de notre stack technique. Dans une logique Platform-As-A-Product pour mettre à disposition des équipes internes (devs, ops, data, etc…) un environnement cohérent, standardisé et automatisé, en production. Nous exploitons la solution d’Elastic au travers de 4 plateformes Elastic Cloud Enterprise avec 600 machines virtuelles dont 400 déploiements de la Stack Elastic. Nous exploitons la solution Grafana au travers de 4 plateformes avec 6 000 utilisateurs dont 2 000 utilisateurs mensuels sur l’environnement de production. Voici les principales responsabilités : 1. Automatiser & Industrialiser l’infrastructure Maintenir et faire évoluer l’infrastructure virtualisée et conteneurisée (VMs, Kubernetes). Implémenter des workflow GitOps robustes avec ArgoCD, Gitlab CI et Ansible. Gérer le cycle de vie des environnements techniques (dev, test, recette, prod), depuis le provsionning jusqu’à la décommissions. Support les équipes via la plateforme Accompagner les équipes tech dans l’onboarding, l’usage des outils, le déploiement des applications. Assurer un support niveau plateforme, incluant le diagnostic, l’amélioration continue et la documentation claire. Participer à la co-construction des « golden paths» pour les cas d’usage récurrents (déploiement, logs, monitoring, intégration). Concevoir des abstractions réutilisables Créer des blueprints, templates et modules pour accélérer les déploiements et éviter les duplications. Maintenir un portail interne de la plateforme, pour exposer ces composants, documentations, et automatisations. 4. Assurer la sécurité et la conformité Intégrer les exigences de CyberAct et autres réglementation de sécurité dans les pipelines et l’infrastructure. Automatiser les contrôles de conformité (analyse d’images, gestion des secrets, règles de sécurité Kubernetes, audit trail) Participer à la mise en œuvre des politiques de contrôle d’accès et à leur revue régulière. 5. Fiabiliser la plateforme Travailler sur la résilience, l’automatisation des redémarrages, la capacité à rollback, et la haute disponibilité. Contribuer au traitement des incidents, aux post-mortems et à la réduction du MTTR. Participer à la définition et au suivi d’indicateurs de performance SLOs, taux de succès des déploiements, couverture, IaC, etc.)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
665 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois