L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 212 résultats.
Mission freelance
ARCHITECTE IA
Les Filles et les Garçons de la Tech
Publiée le
Microsoft Copilot Studio
Azure AI Foundry
FastAPI
12 mois
320-750 €
Île-de-France, France
En tant qu'Architecte IA, vous interviendrez au sein de la DSI d'un acteur majeur du secteur de la protection sociale pour accompagner la structuration et l'innovation autour des projets de valorisation des données. Votre mission principale consistera à adapter et faire évoluer l'architecture d'un portail d'Intelligence Artificielle interne (basé sur la solution open source RAISE), mis à disposition de plus de 1000 collaborateurs et prestataires. Vos responsabilités incluront : Conception et évolution de l'architecture Front et Back : Développer de nouvelles fonctionnalités telles que l'accès sécurisé aux assistants IA, la création de parcours d'accueil, la gestion des droits d'accès, et l'exposition des assistants via API pour les applicatifs métiers. Optimisation des mécanismes de RAG : Concevoir des pipelines d'ingestion optimisés selon les volumes et types de documents, assurer la traçabilité de la qualité des données, et définir les protocoles de mise à jour des bases de connaissances. Industrialisation et DevOps : Mettre en œuvre, paramétrer et maintenir la chaîne CI/CD (actuellement sur le cloud Azure) pour assurer la livraison sécurisée du portail sur plusieurs environnements. Prototypage et Support : Concevoir des prototypes d'assistants IA préconfigurés selon les besoins métiers, assurer un support technique de niveau 2 et 3 en cas d'incident, et maintenir à jour la documentation de la plateforme. Gouvernance et Études d'impacts : Prendre en compte les décisions de la gouvernance IA et réaliser des études d'impacts lors de modifications structurantes du portail.
Offre d'emploi
DEVOPS
Peppermint Company
Publiée le
AWS Cloud
Bash
ELK
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Soutien opérationnel et technique Assurez la stabilité et la fiabilité des applications fonctionnant sur AWS (emplois EMR, charges de travail EKS, Redshift, Glue). Maintenir et dépanner les processus Jenkins, les pipelines CI/CD, les outils de surveillance, d'alertes et de visualisation (services AWS, ELK). Surveillez l'activité de la plateforme, l'utilisation du système et la consommation des coûts. Surveillez l'évolution de la charge de code et l'activité d'intégration Génie logiciel et outillages Refactoriser les scripts Bash en outils Python maintenables. Améliorer la discipline de l'ingénierie : tests, gestion des versions, documentation, structure du code. Soutenir les équipes dans l'adoption de pratiques d'ingénierie logicielle plus solides. Livrables de migration Migrez les pipelines Jenkins vers un nouvel orchestrateur. Prendre en charge la migration des données vers Azure et AWS Amadeus Datamesh. Adapter les services de plateforme existants et les composants applicatifs au nouvel environnement. Contribuer à des normes unifiées CI/CD entre les équipes ATI. Une certaine compréhension des concepts du Big Data et de la gestion du cycle de vie des données tels que les partitions, l'évolution des schémas, les contrôles de qualité des données et l'optimisation de base des coûts/performances est appréciée.
Offre d'emploi
Développeur FullStack .Net/Angular
VISIAN
Publiée le
.NET
Angular
API
3 ans
40k-60k €
400-550 €
Paris, France
Contexte Au sein d'une organisation internationale, l'équipe prend en charge toutes les demandes et besoins IT de toutes les BU qui n'ont pas d'équipes de DEV dédiées (Ex: HR, Legal, Audit, Sécurité, IS, Communication…). En résulte un panel fonctionnel et technique large et varié nécessitant des profils avec une bonne capacité d'analyse et de compréhension, en plus des qualités techniques recherchées. Descriptif du poste Vous interviendrez comme développeur au sein d'une équipe de 10 à 12 personnes, sur les différentes applications du périmètre. Ces applications s'appuient sur les technologies suivantes : C# Angular Python Clouds Azure et AWS SQL & NoSQL databases (SQL Server, Postgres, CosmosDB, etc.) Une attention particulière sera donnée au Clean Code et Software craftsmanship.
Mission freelance
Expertise en Dynamics Sales et Service Client
Codezys
Publiée le
.NET
Angular
API
12 mois
390-490 €
Montpellier, Occitanie
Contexte de la mission Nous recherchons un expert confirmé en Dynamics Sales et en gestion de la relation client pour mener à bien un projet stratégique débutant en mai. L’objectif principal est d’optimiser nos processus de vente et de service client en intégrant des solutions technologiques avancées. Nous nécessitons une compétence approfondie en .Net ainsi qu’en développement low code, afin de personnaliser et d’améliorer nos systèmes existants. La mission requiert une compréhension approfondie des enjeux commerciaux et la capacité à transformer ces besoins en solutions techniques performantes. Notre but est d’accroître l’efficacité opérationnelle tout en offrant une expérience client de haute qualité. Le coût journalier maximum pour cette prestation est fixé à 490€ . Ce projet peut s’effectuer en full remote, avec des déplacements ponctuels possibles sur le site de Montpellier. Le démarrage est prévu pour mai. Objectifs et livrables Renforcer notre infrastructure de vente et de service client par le biais de solutions technologiques innovantes. Intégrer et personnaliser Dynamics Sales pour améliorer nos processus de vente. Optimiser nos systèmes de service client pour augmenter la réactivité et la satisfaction client. Développer des solutions low code pour une mise en œuvre rapide et efficace. Assurer une transition fluide et faciliter l’adoption par les utilisateurs finaux. Fournir une documentation complète et assurer la formation nécessaire pour garantir l’autonomie de l’équipe interne.
Offre d'emploi
DevOps Middleware H/F
CONSORT GROUP
Publiée le
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. DevOps Middleware H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par l’automatisation des déploiements et l’industrialisation des processus (CI/CD) ? Ce poste est fait pour vous. En tant que DevOps Middleware, vous êtes responsable du maintien en conditions opérationnelles (RUN) et de l’optimisation des environnements middleware de notre écosystème : Missions : Automatiser les déploiements et industrialiser les processus (CI/CD) Concevoir, mettre en œuvre et maintenir les pipelines DevOps Administrer et optimiser des environnements cloud et on-premise Gérer les infrastructures via des outils d’ Infrastructure as Code Exploiter et maintenir les serveurs applicatifs (middleware) Assurer le RUN : supervision, gestion des incidents N2/N3, amélioration continue Optimiser les performances applicatives (tuning JVM, monitoring, capacity planning) Mettre en place des solutions de haute disponibilité et de répartition de charge Automatiser les déploiements applicatifs sur les environnements middleware Participer à la modernisation des plateformes (conteneurisation, Kubernetes, OpenShift) Collaborer avec les équipes Dev, Ops, Sécurité et Production C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Apache HTTP Server : reverse proxy, load balancing, gestion SSL Tomcat : déploiement d’applications, tuning JVM, gestion des logs JBoss / WildFly : configuration, clustering, haute disponibilité CI/CD : Jenkins, GitLab CI, Azure DevOps Conteneurisation : Docker, Kubernetes, OpenShift Cloud : AWS, Azure, GCP Infrastructure as Code : Terraform, Ansible, CloudFormation Scripting : Bash, Python, PowerShell Supervision : Grafana, Prometheus, ELK, Dynatrace C’est votre manière de faire équipe : Vous collaborez efficacement avec des équipes pluridisciplinaires (Dev, Ops, Sécurité, Production) et favorisez une communication fluide Vous faites preuve de rigueur et d’organisation dans la gestion des priorités et des incidents C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Data Architect DATABRICKS Azur gen AI 600 e /J
BI SOLUTIONS
Publiée le
Big Data
Python
2 ans
400-600 €
Île-de-France, France
Data Architect DATABRICKS Azur gen AI 600 e /J – Minimum 6-8 ans d’expérience en data, dont plusieurs années en architecture – Expérience confirmée en environnement Azure – Forte maîtrise d’Azure Databricks, Spark, Delta Lake – Expérience en conception de plateformes Big Data à forte volumétrie – Connaissances en intégration de modèles ML en production – Bonne compréhension des architectures GenAI / LLM (RAG, vectorisation, orchestration) – Capacité à interagir avec des équipes métiers industrielles – Anglais courant – Expérience Volvo fortement appréciée Le poste s’inscrit dans un environnement exigeant, orienté performance industrielle et transformation digitale. Nous recherchons un profil structurant, capable de poser les bases d’une architecture robuste et évolutive, tout en accompagnant la montée en maturité IA du client. Compétences professionnelles et techniques: - Azure - Databricks - Python - Gen AI - Angl
Offre d'emploi
Data scientist (H/F)
IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
DevOps (H-F)
K-Lagan
Publiée le
DevOps
1 an
43k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en combinant expertise technique, culture DevOps et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Ingénieur OPS Azure / DevOps (F/H) pour rejoindre l’un de nos clients dans un environnement exigeant et orienté performance. 📌 Poste Ingénieur OPS Azure – DevOps (F/H) 📍 Localisation Niort, Nouvelle-Aquitaine – télétravail partiel possible 🏢 Secteur Assurance 🔍 Contexte Vous intervenez au sein d’une squad agile, dès la phase d’idéation des projets, afin de garantir exploitabilité, performance, sécurité et observabilité des produits SI sur l’ensemble de leur cycle de vie. Votre rôle est central dans l’industrialisation des déploiements et l’amélioration continue des environnements Cloud. 🎯 Vos missions Identifier dès la conception les éléments garantissant exploitabilité et performance Accompagner les équipes sur les dimensions robustesse, sécurité et fiabilité Contribuer à la mise à disposition des environnements Azure Automatiser et industrialiser les processus dans une logique DevOps / CI-CD Garantir l’ observabilité et la supervision des produits Préconiser les éléments liés au Capacity Planning Assurer la complétude du dossier d’exploitabilité Participer activement à l’ amélioration continue 🛠 Stack technique Microsoft Azure OpenShift Python CI/CD & automatisation
Offre d'emploi
Data Engineer Python
Signe +
Publiée le
Python
24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Ingénieur Devops & production H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Saint-Paul-lès-Durance, Provence-Alpes-Côte d'Azur
L'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Au sein de l'équipe Application Management de notre client, grand acteur dans le domaine de l'énergie, vous contribuez à la fiabilité, l'automatisation et l'amélioration continue des environnements applicatifs. Vos responsabilités : • Conception collaborative : Intervenir en amont des projets en collaboration avec les équipes de développement et d'architecture afin d'intégrer les contraintes d'exploitation dès la phase de conception et garantir la robustesse et la maintenabilité des solutions • Veille technologique : Assurer une veille active et être force de proposition sur les nouvelles technologies et pratiques (Infrastructure as Code IaC, Kubernetes, observabilité, automatisation de la sécurité et outils DevOps) • Automatisation avancée : Concevoir, développer et maintenir des pipelines CI/CD robustes et sécurisés afin d'accélérer et fiabiliser le déploiement des applications sur des environnements complexes (cloud, on-premise et conteneurisés) • Ingénierie de production : Piloter les mises en production et assurer le bon fonctionnement des applications (surveillance, gestion des incidents, optimisation des performances et amélioration de la scalabilité des systèmes) • Support et collaboration : Accompagner les équipes d'exploitation et de développement, faciliter la résolution des incidents et contribuer à la diffusion des bonnes pratiques DevOps au sein de l'organisation • Intégration & qualification : Valider et qualifier les packages applicatifs (.NET, Java, microservices) dans un environnement multi-plateformes avant leur déploiement en production L'environnement technique : Kubernetes, Jenkins, GitLab CI, GitHub Actions, Terraform, Ansible, Puppet, Chef, Terraform, Docker, OpenShift, Cloud (AWS, Azure, GCP), Python, Bash, Java, Prometheus, Grafana, ELK Stack, Git (GitFlow), SonarQube, Maven, Nexus • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 0w58lqbmiz
Offre d'emploi
Expert CD/DevOps (Python/Java)
WIKEYS
Publiée le
Argo CD
DevOps
DevSecOps
10 mois
40k-45k €
400-500 €
Paris, France
Description du poste : Nous recherchons un Expert CD/DevOps/DevSecOps capable de manager et d’exploiter des outils de Continuous Deployment et de sécuriser les pipelines de livraison logicielle. Le candidat interviendra sur des projets nécessitant maîtrise technique des outils CD, compréhension des conteneurs et des orchestrateurs, et développement Python ou Java. Responsabilités techniques : Administration et exploitation des outils de Continuous Deployment : XLDeploy , Argo CD . Compréhension approfondie de Docker et Kubernetes : fonctionnement, concepts, orchestration des conteneurs, sans besoin d’administration système. Développement et intégration d’API en Python (ou Java) dans les pipelines CD. Mise en place de workflows DevSecOps et sécurisation des pipelines de livraison. Gestion de l’intégration continue et orchestration avec Jenkins , GitHub , et interaction avec le cloud ( Azure , AWS ). Collaboration avec les équipes de développement pour optimiser les pipelines et assurer traçabilité, qualité et sécurité des déploiements.
Offre d'emploi
Expert CI/DevOps (Python/Java)
WIKEYS
Publiée le
CI/CD
Github
Java
10 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons un Expert CI/DevOps capable de concevoir, automatiser et sécuriser des pipelines d’intégration et de déploiement continu pour des environnements critiques. Le candidat interviendra sur des projets nécessitant maîtrise des outils DevOps, automatisation avancée, et sécurité du code. Responsabilités techniques : Conception, développement et optimisation des pipelines CI/CD avec Jenkins et GitHub Actions . Gestion des artefacts et des dépendances via JFrog Artifactory . Mise en place de l’analyse statique ( SAST ) et de l’analyse de composition logicielle ( SCA ) avec SonarQube , intégration dans le pipeline CI/CD pour contrôle qualité et sécurité. Automatisation des tests unitaires, d’intégration et de déploiement sur environnements de staging et production. Participation à la containerisation et orchestration (Docker/Kubernetes) pour les microservices si nécessaire. Déploiement et gestion optionnelle sur Azure et AWS , incluant pipelines IaC et intégration cloud-native. Collaboration étroite avec les équipes dev pour industrialiser les workflows DevOps et assurer la conformité sécurité.
Offre premium
Offre d'emploi
Cloud Engineer / Administrateur SRE Kubernetes – Expérimenté F/H
Clostera
Publiée le
Google Cloud Platform (GCP)
Kubernetes
54k-65k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! L’équipe Kubernetes administre, exploite et fait évoluer des clusters Kubernetes dédiés aux différentes équipes produit et métiers. Dans un environnement 100% Cloud (GCP & Azure), l’exploitation suit une approche GitOps avec un fort ancrage open source et CNCF. Le rôle consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes, dans un contexte de production exigeant nécessitant autonomie et maîtrise technique avancée. Mission : Gestion de pods , services , ingresses et namespaces “infra” , avec application des bonnes pratiques sur les manifests applicatifs Provisionnement AKS / GKE et ressources cloud via Terraform Industrialisation des déploiements avec GitLab CI/CD et ArgoCD Facilitation du time-to-market (certificats, DNS, observabilité, enablement fonctionnalités) Exploitation des clusters (upgrades K8s et composants, capacity management, PRA) Mise en place multi-tenant (namespaces, quotas, RBAC, network policies) Déploiement et maintenance de l’observabilité (Prometheus, Grafana, Loki, centralisation logs) Suivi consommation cloud (Azure Monitor, métriques GCP, dashboards) Optimisation des ressources (quotas, scaling, templates, extinction nocturne) Renforcement sécurité Kubernetes (policies, RBAC, audit logs) Gestion des secrets (Vault, Sealed Secrets, services cloud) Application des recommandations RSSI et sécurité Automatisation via scripting (Bash, Python, Go) Mise en place d’alerting avancé et proactif Promotion d’une culture SRE (fiabilité, autoscaling, bonnes pratiques CNCF/CAF)
Offre d'emploi
Consultant DevOps H/F
JEMS
Publiée le
40k-55k €
Montpellier, Occitanie
Nous recherchons un(e) Consultant(e) DevOps confirmé(e) capable d'intégrer le développement, l'assurance qualité et d'orchestrer les problématiques de scalabilité, d'automatisation et d'industrialisation. Votre devise : "réduire les interventions humaines pour améliorer la qualité et accélérer les livraisons" Vos missions seront : • Accompagner l'intégration et le déploiement continue des solutions (CI/CD) • Améliorer les processus, les automatiser et favoriser la qualité • Orchestrer et résoudre des problématiques de scalabilité, d'automatisation et d'industrialisation • Piloter, organiser et automatiser tous les tests afin de garantir le bon fonctionnement des solutions • Vous inscrire dans une démarche d'amélioration continue et d'agilité En tant que Consultant(e) DevOps vous maitrisez : • Des outils de construction et de virtualisation : Jenkins,Docker, Kubernetes • Des outils de monitoring : ELK (elastic, logstach, kibana), Prometheus, grafana, Nagios, Datadog • L'infrastructure as code : Ansible, Terraform • Les langages de programmation java, javascript, python, ruby, C/C++ • Des outils de qualité de code : Sonarqube • Le repository de code : Git, GitHub, SVN, Bitbucket • Les langages de scripting bash, shell, python • Les Systèmes d'exploitation Linux, Windows • Les Cloud provider Microsoft Azure, Google Cloud Platform (GCP),AmazonAWS, IBM • Les méthodes agiles • La sécurité des données Référence de l'offre : 184xb3c2ww
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
212 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois