Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI
Votre recherche renvoie 256 résultats.
Mission freelance
EXPERT NEO4J - Administrateur DevOps Senior
TLTI Informatique
Publiée le
Neo4j
Python
1 an
100-550 €
Saint-Denis, Île-de-France
Projet : SPIDER – Plateforme de lutte contre la fraude et le blanchiment (LCB-FT) Contexte de la mission Dans le cadre de ses enjeux de conformité réglementaire et de lutte contre la fraude, le client développe SPIDER , une plateforme d’investigation basée sur des technologies de graphes. Cette solution permet de : Centraliser et connecter les données issues de multiples systèmes internes Offrir une vision 360° des clients et de leurs interactions Détecter des schémas complexes de fraude via des algorithmes de graphes Accélérer les investigations grâce à des visualisations avancées (Linkurious) Vous intégrerez la squad Compliance – Solutions Cognitives , en charge de cette plateforme stratégique. Vos missions principales En tant qu’ Expert Neo4j , vous interviendrez à la croisée des rôles de Data Engineer, Data Analyst et DBA : Administration & Performance Administrer la base de données Neo4j (hébergement IaaS) Optimiser les performances (requêtes Cypher, modélisation) Gérer les sauvegardes, la maintenance et les habilitations Diagnostiquer et résoudre les incidents Analyse & Conception Recueillir et analyser les besoins métiers autour de la donnée graphe Concevoir des modèles de données adaptés aux cas d’usage fraude / conformité Participer aux chiffrages et estimations des projets Delivery & Production Développer des requêtes et composants (Cypher, Python) Participer aux phases de tests et de validation Accompagner les mises en production Assurer la maintenance corrective et évolutive Outils d’investigation Administrer et configurer Linkurious Gérer les fonctionnalités d’investigation (case manager, visualisation) Environnement technique Base de données : Neo4j Langages : Cypher, Python Outils : Linkurious, GitLab CI/CD Scripting : Shell Complémentaires : Node.js, Angular Méthodologie : Agile (Scrum à l’échelle)
Offre d'emploi
Expert Kubernetes
INFOGENE
Publiée le
50k-80k €
Neuilly-sur-Seine, Île-de-France
Description des prestations Prise en main de la plateforme Kubernetes multi‑clusters existante Intégration et déploiement d’applications microservices Mise en place des environnements : namespaces, Helm charts, ArgoCD, réseaux, stockage, BDD, secrets Accompagnement des équipes applicatives dans leur migration Validation des environnements hors‑production et des chaînes d’intégration Participation aux mises en production et passages en CAB Déploiement sur l’ensemble des ACR Industrialisation des déploiements (ApplicationSets, automatisation multi‑clusters) Amélioration continue des pipelines CI/CD Mise en conformité avec les politiques de sécurité (Kyverno, NetworkPolicies, Zero Trust) Contribution aux audits de cybersécurité Mise en place de la supervision et de l’observabilité Support N2/N3 et participation à l’astreinte Rédaction des documentations techniques : HLD, LLD, procédures, PRA Reporting d’avancement, risques et conformité Livrables attendus Dossiers d’architecture (HLD / LLD) Guides d’intégration des microservices Procédures d’exploitation & fiches réflexes Documentation PRA / PCA Tableaux de suivi des accostages Indicateurs de conformité cyber Reporting régulier (COPIL / projets) Profil recherché — Senior / Expert Kubernetes Compétences impératives Expertise confirmée sur Kubernetes (≥ 3 ans, idéalement on‑premise) Expérience sur les architectures microservices Maîtrise des environnements multi‑clusters Solides compétences DevOps : ArgoCD , GitOps, GitLab CI Connaissance des stacks d’observabilité (LGTM) Développement en Python Connaissances avancées en sécurité et bonnes pratiques Compétences appréciées Contexte à fortes contraintes cybersécurité ( ANSSI, Zones de confiance, Zero Trust ) Expérience en environnements industriels Connaissance KubeVirt
Offre d'emploi
DevOps SysOps Infrastructure Cloud
VISIAN
Publiée le
AWS Cloud
CI/CD
Cloud
1 an
Paris, France
Missions Analyser les besoins métier afin de concevoir des solutions cloud adaptées aux exigences spécifiques de l’entreprise. Concevoir des architectures cloud robustes et évolutives, en intégrant les meilleures pratiques en matière de sécurité, performance et coût. Intégrer des mécanismes de sécurité robustes dans l’architecture cloud, en garantissant le respect des normes de sécurité et de conformité du groupe. Mettre en place des stratégies d’optimisation des coûts liés à l’infrastructure cloud, en sélectionnant les ressources appropriées et en appliquant des politiques de gestion des coûts. Assurer la restitution des dossiers d’architecture techniques et accompagner les équipes dans l’implémentation des solutions. Effectuer une veille technologique pour rester informé des évolutions dans le domaine du cloud et recommander des innovations apportant de la valeur à l’entreprise. Collaborer étroitement avec les équipes métiers, projets et DevOps pour garantir que les infrastructures répondent aux besoins business tout en respectant les meilleures pratiques Cloud et les normes de cybersécurité du groupe. Outils & Environnement Cloud : AWS, Azure, GCP Infrastructure as Code : Terraform, Ansible, Packer Conteneurisation et orchestration : Docker, Kubernetes, ECS, EKS, Karpenter CI/CD : Gitlab CI, Github Langages : Python, Java, Php, NodeJS, Bash Sécurité : Okta, Prisma Cloud, Crowdstrike EDR Autres outils : Databricks, Apigee Monitoring & Logging : Splunk, Datadog, fluentd Concepts réseau AWS (VPC, transit gateway, firewall, DNS) Sécurité AWS (SSM, KMS, secret manager, inspector, WAF, IAM) Résilience et redondance des données (S3, EFS, EBS) Types de bases de données AWS Types de déploiement (Blue/Green, Canary, Rolling) Concepts serverless (Lambda, API Gateway, Cloudfront) Approche SecOps et Security by Design (SCP, IAM, tagging, audit) Notions GitOps (Argocd, Kyverno, Helm, Kustomize) Industrialisation des contrôles de sécurité via Terraform, Ansible
Mission freelance
SRE (F/H)
CELAD
Publiée le
1 an
450-500 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7/15 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Notre client recherche pour renforcer son équipe un SRE. Voici un aperçu détaillé de vos missions : Infrastructure logicielle (IaC) - Mise en place et maintien de briques d’infrastructure as code (IaC) à l’aide notamment de Terraform et Ansible, - Accompagnement à la migration vers la nouvelle plateforme en construction. CI/CD & Conteneurisation - Conception et maintenance de la chaîne d’intégration et de déploiement continu (CI/CD) via GitLab CI, ArgoCD, Helm, Kubernetes, et GitOps, - Support aux équipes de développement (~25% du temps) sur les problématiques CI/CD et déploiement, - Containerisation des services avec Docker. Monitoring & Observabilité - Gestion des outils de monitoring : ELK, Plausible, - Contribution à la transition vers une stack plus moderne autour de Grafana, OpenTelemetry. Fiabilité & Performance - Réalisation de tests de charge via K6 pour garantir la stabilité face à une forte volumétrie, - Participation à la sécurisation et à l’assurance qualité (Trivy, SonarQube, Playwright,...). Culture produit & collaboration - Forte sensibilité produit : compréhension des enjeux métiers, échanges avec les équipes produit (4 équipes : Vitrine, Tunnel, Espace Abonné, Assistance), - Cadrage technique des besoins, participation à l’analyse des demandes.
Offre d'emploi
Développeur·se Java Senior F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
CI/CD
Gitlab
Luxembourg
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
ML Engineer/ MLOPS Engineer
Panda Services
Publiée le
API
BigQuery
CI/CD
12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers
Offre d'emploi
Tech Lead Fullstack Java / DevSecOps (H/F)
Inventiv IT
Publiée le
AWS Cloud
DevOps
DevSecOps
Levallois-Perret, Île-de-France
Dans le cadre de projets IT structurants, nous recherchons un Tech Lead Fullstack capable de piloter une ou plusieurs squads et de garantir la qualité des livrables dans des environnements exigeants. Vous interviendrez sur des projets long terme avec des enjeux forts autour de la scalabilité, sécurité et performance . Missions : Co-construire la roadmap technique avec les équipes produit et architecture Encadrer une équipe de 4 à 6 développeurs et assurer leur montée en compétence Définir et challenger les architectures techniques Participer activement au développement (hands-on) Mettre en place et maintenir les pipelines CI/CD et pratiques DevSecOps Garantir la qualité du code (tests, revues, bonnes pratiques) Assurer la communication avec les équipes infra, sécurité et produit Suivre la performance des applications (monitoring, SLA) Environnement technique : Backend : Java 17+/21, Spring Boot Frontend : React, Next.js, Angular DevOps : Git, GitLab CI/CD, Terraform, Docker Cloud : AWS (Azure / GCP en plus) Data : PostgreSQL, MongoDB Qualité : Tests unitaires, intégration, E2E
Mission freelance
Consultant en système d'information
Coriom Conseil
Publiée le
NestJS
Node.js
TypeScript
12 mois
400-530 €
Lille, Hauts-de-France
Documentation du produit Démo du produit Compétences techniques VueJs - Confirmé - Important NodeJs - Confirmé - Important TypeScript - Confirmé - Important NestJs - Confirmé - Souhaitable Connaissances linguistiques: Français Courant (Impératif) Le produit se compose de plusieurs sous-produits (certains déjà déployés et d'autres en construction). Nous cherchons actuellement à renforcer les équipes de développements constituées de deux équipes produit. Nous recherchons un Développeur opérationnel IT confirmé - En NODEJS (NestJs), VUEJS. - Ayant des connaissances Devops (GCP, Gitlab CI) - Avec un sens important de l'optimisation des performances front et back.
Offre d'emploi
Consultant·e Customer Technology Advisor / Delivery Manager + Product Owner
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud , de la Data , du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes, environnements conteneurisés et outillage DevOps). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principalesRelation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Faciliter l’alignement entre les besoins métiers et les capacités techniques des plateformes Cloud, Data et DevOps . Adoption & Acculturation Accompagner les équipes dans l’adoption des nouvelles offres et fonctionnalités. Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Sensibiliser les utilisateurs aux bonnes pratiques autour des plateformes OpenShift , des chaînes CI/CD Jenkins et des services Data/Cloud. Expertise & Innovation Participer à l’expérimentation de nouvelles technologies ( sandbox, POC ). Être référent sur les technologies Data, Cloud, conteneurisation, orchestration et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Contribuer à la promotion et à l’adoption de solutions basées sur OpenShift , Jenkins , architectures distribuées et services managés Cloud. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres. Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Participer à l’amélioration de l’expérience utilisateur sur les offres de plateformes, de déploiement et d’industrialisation. Environnement techniqueBig Data & NoSQL Data Lakehouse Cloudera Teradata MongoDB Bases de données PostgreSQL Oracle MySQL SQL Server Redis Cloud Public (GCP) BigQuery Firestore Conteneurisation, plateformes & DevOps OpenShift Kubernetes Docker Jenkins GitLab CI/CD / outils d’industrialisation API management, déploiement applicatif et automatisation Environnements techniques Data Streaming Architectures distribuées Plateformes applicatives et environnements conteneurisés
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
Devops
Ipanema Technology
Publiée le
AWS Cloud
Github
Gitlab
1 an
100-400 €
Casablanca, Casablanca-Settat, Maroc
Le profil attendu doit être autonome, capable de gérer ses tickets sans encadrement ni suivi opérationnel, avec une forte réactivité et fiabilité en environnement de production.Les compétences techniques restent relativement accessibles, incluant du DevOps classique et une capacité à travailler sur des automatisations intégrant des outils d’IA comme Claude ou Gemini. L’enjeu principal repose davantage sur la rigueur, la réactivité et la capacité à délivrer rapidement que sur une expertise technique très pointue. Stack Technique d'après AO de Matthieu : Infra & CI/CD : AWS/GCP, Terraform, Ansible, GitHub/Jenkins/GitLab CI (Hybride Cloud & On-premise). Systèmes & Métier : Admin Windows/Linux, déploiement COTS (Zuken, 3DExperience) et industrialisation de pipelines E/E
Offre d'emploi
Expert Cloud
VISIAN
Publiée le
Cloud
Terraform
1 an
Île-de-France, France
Le socle technique pour la réalisation de ces migrations englobe principalement des technologies comme Docker, Kubernetes, Terraform, Helm, Gitlab, Jenkins, Argo CD, Digital AI Release, Sybase, Oracle, CFT/MQ, Websphere, Apache/Tomcat. Missions L'expert Cloud accompagne les équipes de Production Applicative en charge de cette migration sur les aspects liés à la production. L’objectif est de les faire monter en compétence sur les technologies Cloud / Infrastructure as Code afin qu’ils deviennent autonomes à la fois pour réaliser ces migrations de manière industrialisée mais aussi pour administrer ces applications une fois celles-ci déployées. L'expert Cloud intervient sur tout ou partie des activités suivantes : Développement et maintenance de la surcouche 2S permettant une meilleure expérience utilisateur pour les équipes onboardées sur le DMZR as Code Définition de l'impact de ces nouvelles technologies sur les pratiques de la production IT 2S et développement des standards/supports nécessaires pour faire évoluer ces pratiques Sensibilisation de la ligne managériale Accompagnement des équipes sur leurs migrations : support au travers de divers canaux (outillage, documentation, training, sessions de travail), apport du conseil et des propositions d'amélioration, assurance de la bonne appropriation des pratiques, conformité au standard, animation de l'amélioration continue Rendre visible les progrès / bénéfices pour les équipes au travers de la mise en place d'indicateurs pertinents et l'organisation de retours d'expérience Être en interface avec l'Offre de Service du groupe bancaire pour faire remonter les besoins et propositions d'amélioration 2S Outils & Environnement Docker Kubernetes Terraform Helm Gitlab Jenkins Argo CD Digital AI Release Sybase Oracle CFT/MQ Websphere Apache/Tomcat
Mission freelance
Développeur Python
MLMCONSEIL
Publiée le
Python
6 mois
100-450 €
Nantes, Pays de la Loire
Pour l'un de nos clients nantais, nous recherchons un profil de développeur Python étant en capacité tant d'intervenir sur le développement des outils du périmètre associé. L'outil Gitlab est priorisé pour la gestion. Tâches Le profil devra aussi intervenir sur le maintien ou le développement de la CI/CD. Pour ce profil, nous sommes hors grille client. Pas de tjm cible proposé. Description Développement de scripts python (compétences d'au moins 5 ans). Mise en place et maintien de la CI/CD. Compétences Python Gitlab & chaine de CI/CD Testing manuel Eventuellement des compétences sur la data et un intérêt pour les sujets d'IA/ de ML. Compétences Demandées Obligatoire : Python , GITLAB
Mission freelance
Développeur Python confirmé (Lyon)
SQLI
Publiée le
Python
1 an
400-450 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes client dans le secteur de l'énergie, je suis à la recherche d'un développeur python confirmé. Une expérience de 2 à 5 ans est souhaitée. Python version 3.x - Maitrise XML (XPath, XSD, XSL T) - Maitrise API Rest (Connaissance d'au moins 1 frameowrk) - Pratique SNMP - Théorique Docker (compose, networking) - Pratique DevOps (GIT, Jenkins, Ansible) - Maitrise Compréhension des architectures de base TCP/IP, adresse MAC, VLAN - Maitrise Méthode Agile - Théorique Shell Linux - Pratique Périmètre de prestation Assurer la Maintenance en Condition Opérationnelle (MCO) des applications de configuration, d’administration et de tests : o Développées en Python (configurateur, outils de déploiement, outils de tests) o Utilisation d’APIs, SNMP, docker. Assurer la mise en place de la chaîne d’intégration et de déploiement continu (CI/CD), incluant l'utilisation de : o Jenkins et GitLab CI, AWX, Ansible pour l'automatisation o SonarQube pour le contrôle de qualité o Docker pour la containerisation des applications et des automates Assurer le maintien en Qualité des applications : o Documentation conception Technique (Confluence) o Document d’architecture
Offre d'emploi
Développeur Flux Stambia / Semarchy xDI / Kafka / Springboot / MongoDB - H/F - Métropole Lilloise
HELPLINE
Publiée le
Apache Kafka
Mongodb
Semarchy
3 ans
38k-45k €
400-550 €
Lille, Hauts-de-France
Description du poste Dans le cadre du renforcement de nos activités Data Engineering pour un leader international basé dans le Nord, nous recherchons un Développeur flux Stambia / Semarchy xDI confirmé . Kafka, Springboot & MongoDB appréciés. Ce que nous allons accomplir ensemble : Au sein d'une équipe expérimentée, vous interviendrez sur des enjeux variés de BUILD (conception, création) et de RUN (exploitation, optimisation) sur des flux de données opérationnels stratégiques. Vos missions au quotidien : Analyse & Conception : Analyser les besoins d'intégration de données et concevoir des flux complexes via Stambia / Semarchy xDI. Développement : Développer les flux en appliquant les meilleures pratiques et produire des scripts (Python, Shell, etc.) pour personnaliser les traitements. Qualité & Tests : Garantir la robustesse et la non-régression des développements (tests de performance, fiabilité). Documentation : Réaliser les spécifications techniques et partager vos connaissances via Confluence. Maintenance & Run : Assurer le monitoring, le support et participer aux astreintes pour garantir la disponibilité des flux en production. Qualifications Ce poste est fait pour vous si : Vous justifiez d'une expérience confirmée (3 à 5 ans) en développement de flux avec Stambia / Semarchy xDI . Vous maîtrisez les concepts ETL/ELT, le langage SQL et la modélisation de données. Vous avez une expérience pratique en scripting (Python, Beanshell, Shell ou équivalent). Vous êtes familier avec les environnements collaboratifs : Git/Gitlab, CI/CD, Jira . Vous avez une bonne connaissance des architectures d'échange (API REST, Batch, Streaming/Kafka). Votre sens du service, votre capacité à travailler en équipe et votre communication claire sont vos atouts majeurs.
Offre d'emploi
Ingénieur SRE / DevOps Azure H/F
CONSORT GROUP
Publiée le
Cassandra
Redis
92100, Boulogne-Billancourt, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur SRE / DevOps Azure H/F C’est votre mission Vous êtes passionné·e par le Cloud, l’automatisation et la fiabilité des systèmes distribués ? Ce poste est fait pour vous. En tant qu’ Ingénieur DevOps / SRE Azure , vous êtes responsable du bon fonctionnement et de l’évolution de notre écosystème : Côté Build Concevoir et déployer des infrastructures Cloud sur Microsoft Azure via Terraform Mettre en place et maintenir les pipelines CI/CD sous GitLab Automatiser les déploiements applicatifs et les environnements Industrialiser les pratiques DevOps pour garantir la reproductibilité Développer des scripts d’automatisation en Bash et Python Participer aux choix d’architecture avec les équipes techniques Côté run : Assurer la disponibilité, la performance et la stabilité des applications critiques Gérer les incidents de production et contribuer à leur résolution Mettre en place et piloter les outils de monitoring et d’alerting Suivre les KPI et garantir le respect des SLA Optimiser les performances des systèmes et des middleware Administrer et maintenir les composants techniques (API Manager, RabbitMQ, Redis, Cassandra) Contribuer à l’amélioration continue des pratiques SRE / DevOps Documenter et partager les bonnes pratiques au sein des équipes C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez automatiser, fiabiliser et optimiser les systèmes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : VMicrosoft Azure (App Service, Container Apps, APIM, Blob Storage, Cosmos DB) Terraform (Infrastructure as Code) GitLab CI/CD et automatisation des pipelines Docker et environnements conteneurisés Linux (administration avancée) Scripting Bash et Python Middleware : RabbitMQ, Redis, Cassandra, Elasticsearch API Management (Azure APIM) Méthodologie Agile (Kanban), outils Jira & Confluence C’est votre manière de faire équipe : Esprit collaboratif et capacité à travailler en transverse avec Dev, Ops et Architectes Sens des responsabilités et orientation résultats Proactivité et force de proposition Esprit d’amélioration continue Capacité à partager et vulgariser les bonnes pratiques C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Boulogne-Billancourt Contrat : CDI Télétravail : Hybride selon mission Salaire : De 50 K€ à 60 K€ (selon expérience) brut annuel Famille métier : DevOps / SRE / Cloud Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Démission pour création d'entreprise rapide
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
256 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois