Trouvez votre prochaine offre d’emploi ou de mission freelance Datadog
Votre recherche renvoie 35 résultats.
Offre d'emploi
Ingénieur en automatisation de tests(Robot Framework) – environnement Agile-
ABSIS CONSEIL
Publiée le
Agile Scrum
Datadog
Git
1 an
40k-45k €
410-450 €
Île-de-France, France
Nous recherchons un Automaticien spécialisé en automatisation de tests (Robot Framework), capable d’intervenir sur l’ensemble du cycle de vie des robots et des scripts d’automatisation. Vous rejoindrez une équipe Qualité Produit afin d’accompagner les projets d’automatisation web, mobile et API, ainsi que le RUN quotidien des robots. Le poste requiert une solide expertise en Robot Framework et loutil de gestion de référentiel de tests (XRAY). Missions Dans le cadre de cette mission, vous interviendrez notamment sur : ● Garantir la qualité et la complétude du référentiel de tests du produit ● Participer de manière active aux différentes cérémonies de l’équipe agile ● Estimer la charge de tests de validation des US pour chaque sprint ● En suivant les standards de l'équipe Qualité Produit : Préparer les tests et JDD associés sur les bases de user stories Dérouler les tests manuellement en s’appuyant sur notre outil de management de tests Xray (tests IHM et API) Saisir et suivre les anomalies Maintenir le patrimoine de TNR et analyser les impacts sur les TNR automatisés Maintenir le patrimoine de tests IHM et API automatisés et l’alimenter des nouveaux tests Valider les échanges inter-applicatifs avec les applications partenaires Intervenir sur la validation des échanges de bout-en-bout (validation des processus transverses applicatifs) Communiquer efficacement, régulièrement et en toute transparence sur les actions réalisées auprès des membres de l’équipe, mais aussi des diverses parties prenantes (DSIN, métier) Participer aux rituels de l'équipe transverse Qualité Produit et respecter les règles internes (suivi des temps, absences etc.)
Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
Devops
ESENCA
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes
1 an
Lille, Hauts-de-France
DevOps Engineer confirmé (H/F) – Région lilloise Localisation : Métropole lilloise (présence requise) Disponibilité : ASAP Contexte : Environnement international – Production critique avec astreintes Contexte & objectif Dans un environnement international exigeant, vous intervenez au sein d’une équipe Ops transverse afin d’accompagner les équipes produit dans la gestion des opérations, le maintien en condition opérationnelle et l’industrialisation de leurs applications. L’objectif principal est d’apporter une expertise DevOps solide pour garantir la fiabilité, la performance et la scalabilité des plateformes en production. Missions principales Diffuser les bonnes pratiques Ops auprès des équipes de développement Déployer et configurer les infrastructures (hors production et production) Mettre en place et maintenir des pipelines CI/CD Accompagner les équipes sur les sujets d’observabilité (monitoring, alerting, SLI/SLO) Participer à la gestion des incidents (analyses, post-mortems, plans d’actions) Proposer des améliorations en termes de performance, sécurité et fiabilité Contribuer à une démarche FinOps (optimisation des coûts, suivi des consommations) Participer au Run transverse (gestion de tickets, support aux équipes métiers) Automatiser les tâches récurrentes Participer aux astreintes (rotation avec l’équipe) Environnement technique Cloud & Infrastructure : Google Cloud Platform (GCP) (++ impératif) Kubernetes / GKE (++ impératif) Terraform (++ impératif) Docker (++) CI/CD & DevOps : GitHub / GitHub Actions (++) Vault (++) JFrog (++) Jira (+) Monitoring & Observabilité : Datadog (++) PagerDuty (+) Langages & Scripting : Python (++) Bash (++) Systèmes : Linux (RedHat, CentOS) (++) Bases de données : PostgreSQL (++) MongoDB (++) MySQL (++) ITSM : ServiceNow (+)
Offre d'emploi
Site Reliability Engineer / SRE (Lille - 3j de présentiel par semaine non négociable)
ANDEMA
Publiée le
Datadog
Github
Google Cloud Platform (GCP)
12 mois
50k-65k €
500-530 €
Lille, Hauts-de-France
Contexte de la mission Renforcer l'équipe Opérations et créer une fonction SRE structurante au sein de l’organisation. Nous recherchons un·e SRE senior capable d’incarner et de structurer la pratique SRE, avec une approche hybride RUN → BUILD : Gérer le RUN (gestion des incidents, traitement des tickets, maintien en conditions opérationnelles) Transformer les irritants récurrents en projets d’amélioration Automatiser les opérations pour réduire le volume de tickets et éviter leur réapparition Utiliser les problématiques du RUN comme levier pour impulser des projets BUILD (infra, performance, sécurité, fiabilité) L’objectif : faire du RUN un moteur d’amélioration continue, en collaboration étroite avec les équipes infra et développement. ️ Missions principales Garantir la disponibilité, performance et scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, post-mortem, correctifs, prévention) Structurer et améliorer l’ observabilité et la qualité de service Automatiser les opérations et le support (approche software & IA pour les Ops) Réduire la dette opérationnelle via des chantiers techniques structurants Collaborer étroitement avec les équipes Dev, DevOps et Sécurité Stack & environnement Cloud : GCP Orchestration : Kubernetes Systèmes : Linux Langages & IaC : Python, Terraform, Java Monitoring : Datadog CI/CD : GitHub, GitHub Actions Réseaux & sécurité : WAF, protection DDoS Modalités : Localisation : Lille (accessible en transports) Durée de la mission : longue, plusieurs années
Mission freelance
[LFR] Site Reliability Engineering | DIRECT SRE/ DATADOG, Sénior à La Garenne-Colombes - 1424
ISUPPLIER
Publiée le
10 mois
400-650 €
La Garenne-Colombes, Île-de-France
Description et localisation Localisation : Garennes‑Colombes (présentiel partiel souhaité) Contexte de la mission Dans le cadre du renforcement des pratiques d’observabilité et de fiabilité opérationnelle, le client souhaite intégrer un Site Reliability Engineer (SRE) spécialisé sur Datadog. L’objectif est de consolider le monitoring, d’améliorer la qualité du Run, d’anticiper les incidents et de fiabiliser les applications critiques du périmètre. Intervention au sein des équipes Ops / Plateforme / Production, en lien direct avec les équipes Dev, Cloud et Sécurité. Missions principales : Observabilité & Monitoring Datadog Définir, mettre en place et optimiser les dashboards Datadog. Configurer l’APM (Application Performance Monitoring). Implémenter des monitors (alerting, sondes, seuils dynamiques). Mettre en place des dashboards métiers et techniques pour les équipes applicatives. Superviser logs, métriques, traces et événements via Datadog Logs / Metrics / Tracing. Fiabilité & Performance (SRE) Analyser les incidents récurrents et proposer des actions de remédiation. Définir et suivre les SLO / SLI / SLA. Participer à la réduction du toil et à l’automatisation des tâches répétitives. Participer aux post-mortems (blameless) et à la mise en place d'actions correctives. Automatisation & Pipeline CI/CD Automatiser la configuration Datadog via Terraform / Ansible / CI-CD. Participer à l’intégration Datadog dans les pipelines de déploiement. Contribuer à l’industrialisation des pratiques d’observabilité. Collaboration & Support technique Accompagner les équipes Dev et Ops sur la bonne instrumentation applicative. Sensibiliser les équipes à l’observabilité (good practices). Participer à la création de modèles de dashboards / alertes standardisés. Type de projet (support / maintenance / implementation /…) : Support Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jrs / semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui
Mission freelance
SRE ou SITE RELIABILITY ENGINEER-E
Coriom Conseil
Publiée le
Datadog
Grafana
Kubernetes
12 mois
400-510 €
Lille, Hauts-de-France
Contribution active au design de la plateforme d'Observabilité Accompagnement des features teams dans l'implémentation de leur observabilité Delivery et configuration des composants techniques de la stratégie d'Observabilité Compétences techniques Kubernetes - Confirmé - Impératif Grafana OSS (Loki, Mimir, ...) - Confirmé - Important OpenTelemetry - Confirmé - Important Datadog - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes.
Mission freelance
Devops - Lille
KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Datadog
Github
1 an
300-450 €
Lille, Hauts-de-France
Tu intégreras l’équipe Ops de la Digital Unit. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Ta mission dans un premier temps sera d’assurer la bonne santé d’un groupe d’applications défini avant de travailler à leur migration et à cible à travailler de manière mutualisée sur tous les projets de la Digital Unit. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Offre d'emploi
Senior Backend Engineer / Tech Lead Backend .NET
Hexateam
Publiée le
.NET
Azure Kubernetes Service (AKS)
Datadog
3 ans
La Défense, Île-de-France
Contexte Dans le cadre d’un programme de modernisation applicative et de transformation vers des environnements cloud, nous recherchons un profil senior capable d’intervenir sur la refonte de services backend, l’optimisation des performances, l’amélioration de la fiabilité en production et l’accompagnement des équipes sur les bonnes pratiques d’ingénierie. Missions Refonte et excellence backend • Concevoir, développer et refondre des services backend pour assurer leur intégration dans un environnement cloud • Simplifier les architectures existantes et accompagner la migration d’Oracle vers PostgreSQL • Optimiser les modèles de données et les requêtes complexes • Réduire la dette technique et améliorer la maintenabilité des applications • Garantir la qualité du code à travers les tests et les revues de code Performance, stabilité et scalabilité • Diagnostiquer et résoudre des problèmes de performance critiques • Améliorer la gestion des charges et des pics d’activité • Intégrer les exigences non fonctionnelles dès la conception : performance, sécurité, résilience, exploitabilité • Optimiser les pipelines de données pour améliorer les performances globales • Collaborer avec les équipes afin d’apporter une meilleure visibilité sur les performances et les incidents Exploitabilité et environnement cloud-native • Concevoir et développer des services évolutifs et résilients, optimisés pour des déploiements cloud • Intégrer des pratiques d’observabilité dès les phases de conception et de développement • Configurer les ressources de déploiement dans Kubernetes • Participer à l’amélioration des Helm charts pour intégrer les spécificités des besoins applicatifs lors des déploiements de services Observabilité, incidents et fiabilité • Mettre en place et améliorer les dashboards et l’alerting sous Datadog • Corréler logs, métriques et traces afin de diagnostiquer les incidents complexes • Participer aux analyses de causes racines (RCA) et améliorer les standards de logs et de traçabilité • Contribuer à la réduction des incidents critiques backend Contribution à la stratégie produit et à l’excellence technique • Participer à la définition de la roadmap technique en alignant les objectifs techniques avec les besoins produit • Agir en tant que mentor afin de développer les compétences techniques de l’équipe • Développer une culture de l’exploitabilité au sein des équipes, avec un focus sur la surveillance, les SLO et les mécanismes d’observabilité dès la phase de développement • Contribuer à la structuration et à l’amélioration continue des pratiques d’ingénierie
Mission freelance
SRE EXPERT
HAYS France
Publiée le
Bash
Datadog
Google Cloud Platform (GCP)
3 ans
100-460 £GB
Lille, Hauts-de-France
Site Reliability Engineer (SRE) Transverse - Plateforme CCDP Au sein de la Customer & Commerce Digital Platform (CCDP), vous interviendrez en tant que Site Reliability Engineer (SRE) Transverse. Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Mission freelance
Lead Dev Java/Vue
Codezys
Publiée le
API
Datadog
Docker
12 mois
370-400 €
Lille, Hauts-de-France
Contexte de la mission Votre mission se décompose en deux volets : d'une part, assurer la gestion technique du développement de produits digitaux fondamentaux, et d'autre part, instaurer une culture d'excellence au sein d'une équipe agile. Nous recherchons un expert capable de naviguer avec aisance dans un environnement moderne, notamment : Back-end : Java 17 à 25, Spring Boot 3 (obligatoire), architecture microservices, API-first (REST), NestJS (souhaité). Front-end : Vue.js 3 (Composition API), TypeScript, Tailwind CSS. Data & Middleware : PostgreSQL, MongoDB, Kafka (maîtrise du consumer/producer via Spring). Architecture : connaissance souhaitée de l'architecture CQRS. Cloud & Ops : Google Cloud Platform (GCP), Kubernetes (GKE), Docker, Terraform. Observabilité : Datadog (fortement souhaité). Méthodologie : approche agile (Scrum/Kanban) avec CI/CD automatisé. Objectifs et livrables Vos responsabilités en tant que lead : En tant que référent technique, votre rôle dépasse la simple livraison de code ; vous portez la vision globale : Leadership technique (60% - Build/Code) : Concevoir des architectures robustes et évolutives, garantir la qualité, la performance et la sécurité des développements réalisés par l’équipe. Mentorat et développement : Animer les revues de code, accompagner les développeurs moins expérimentés et encourager le partage de connaissances via des sessions BBL et des guildes. Product Ownership Technique : En binôme avec le Product Owner, préciser les user stories, évaluer la complexité technique et anticiper les dettes technologiques. Une forte appétence métier est essentielle pour comprendre les enjeux liés à nos configurateurs. DevSecOps et Exploitation : Collaborer avec l’équipe opérationnelle pour piloter l’observabilité de la plateforme et garantir un haut niveau de disponibilité (SLA) pour nos enseignes. Veille technologique et amélioration continue : Suivre les évolutions dans le domaine de l'IA et être moteur dans l’intégration de ces innovations au sein de l’équipe.
Offre d'emploi
Ingénieur DevOps Sénior
ASTRELYA
Publiée le
Argo CD
Datadog
DevOps
Île-de-France, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant qu’Ingénieur DevOps Sénior vous serez en charge de réaliser l’ensemble des actions opérationnelles d’intégration dans le cadre des projets d'intégration. Ce rôle intervient lors de l’intégration des changements en mode projet. Dans une équipe d'une dizaine de Devops, il aura également un rôle de lead afin d'animer le backlog et suivre son avancée. Concrètement vous allez : Aide à la définition, construction des images de conteneurs : Lead sur l'animation de l'activité DevOps Aide à la mise en œuvre du packaging de déploiement de l’application (Helm Chart / Deployment KUBERNETES) Mise en place de la chaine des pipelines de déploiement continue Mise en place de la solution d’observabilité et de maintenance pour les applications Aide au débogage dans la configuration applicative des briques techniques ou logicielles. Analyse de la manière dont on garantit un arrêt/démarrage cohérent de l’application. Mise à disposition de scripts ad hoc pour répondre à des besoins particuliers en phase projet. Qualification des applications : contrôle de conformité aux normes d'exploitation et aux règles d'exploitabilité, tests techniques. Mise en production : paramétrage des outils d'exploitation (surveillance, sauvegarde, automatisation d’exploitation...). Votre futur environnement technique : Kubernetes, idéalement Openshift Maitrise du packaging (helm Chart) et des solutions de déploiement ( Argocd / flux ) Maitrise de la solution de surveillance et d’observabilité datadog Maitrise des mécanismes de sécurisation (Rbac, security Context) Connaissance de l'outil Gitlab-CI
Offre d'emploi
Devops
Etixway
Publiée le
Administration linux
Datadog
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Contrainte forte du projet >Mission transverse OPS sur le périmètre encaissement magasin . Travail en collaboration avec les équipes de solutions encaissement magasin (Interne et externe) Les livrables sont: Run & exploitabilité des produits Dev Terraform GCP Compétences techniques >> Cloud GCP - Expert - Impératif >> Monitoring Datadog - Expert - Impératif >> Terraform - Expert - Impératif >> Linux - Confirmé - Impératif Connaissances linguistiques >> Anglais Professionnel (Impératif) >> Description détaillée Le DEVOPS interviendra sur le domaine Cashing et Paiement qui est en pleine mutation. A ce titre, voici ton futur rôle : >> Tu instilleras la culture DevOps au sein des Features Teams. >> Tu veilleras et garantiras l’exploitabilité et la fiabilité des applications. >> Tu garantiras le haut niveau de qualité de construction et de mise en production des applications >> Tu piloteras la fourniture des environnements de développement, d’intégration et de tests en accord avec la politique technique client >> Tu automatiseras, fiabiliseras et optimiseras les déploiements (chaîne CI/CD avec évolution vers le Déploiement en production). >> Tu piloteras la fourniture des environnements Cloud, de leur bonne utilisation (coûts, optimisation). >> Tu garantiras la prise en compte de la sécurité au plus tôt des phases de conception dans une approche Secured by Design, DevSecOps. >> Des compétences en terme d'administration système Linux serait un plus ainsi que la connaissance des produits puppet / foreman
Mission freelance
DEVOPS EXPERT H/F
HAYS France
Publiée le
Cloud
Datadog
Google Cloud Platform (GCP)
1 an
400-480 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Observabilité, nous recherchons un Ingénieur Observabilité / DevOps expérimenté pour contribuer à la construction et à l’évolution d’une plateforme d’Observabilité opérant des solutions open-source à grande échelle. Cette plateforme couvre les besoins de monitoring, dashboarding, alerting, log management et APM pour des applications hébergées on-premise et cloud. Vous interviendrez principalement sur les composants OpenTelemetry et la stack Grafana OSS (Loki, Mimir, Tempo, Alloy, etc.) opérés en interne. Vos missions Contribution technique & expertise Participer activement au design de la plateforme d’Observabilité Intégrer, déployer, paramétrer et templater les différents composants (Grafana OSS / OTEL) Assurer le delivery des composants techniques liés à la stratégie d’Observabilit Run, optimisation & fiabilité Administrer et maintenir l’ensemble des outils de la plateforme Gérer incidents, problèmes et performance Industrialiser les déploiements / pipelines Participer à l’amélioration continue et à l’évolution des bonnes pratiques Support & accompagnement Conseiller les équipes dans : La collecte (logs, métriques, traces) L’exploitation des données dans les backends L’amélioration de la disponibilité et des performances applicatives (en environnement international) Documentation & partage de connaissances Rédiger ADR, documentations techniques, RUN books Diffuser la connaissance auprès des équipes internes
Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable
Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab
6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
Offre d'emploi
Développeur Back-End Confirmé Java/Spring Boot – Nantes
ASAP TECHNOLOGIES
Publiée le
API
AWS Cloud
Confluence
1 an
40k-45k €
400 €
Nantes, Pays de la Loire
Dans le cadre d’un projet stratégique dans le secteur transport / mobilité , nous recherchons un Développeur Back-End Confirmé pour renforcer une équipe agile basée à Nantes . Vous interviendrez au sein d’un environnement à fort trafic , sur un périmètre mêlant à la fois build et run , avec une infrastructure 100% AWS et Kubernetes . Vos missions Concevoir, développer et maintenir des fonctionnalités backend de qualité Participer à la vie de l’équipe dans un cadre Agile Contribuer au déploiement, au suivi et au maintien en conditions opérationnelles de l’application Participer à l’amélioration continue des pratiques de développement et d’exploitation Être force de proposition dans un écosystème technique varié Intervenir sur des sujets liés à la production , la supervision et la résolution de problématiques Environnement technique Java Spring Boot Kubernetes AWS Docker API MongoDB GitLab Sonar Datadog OpenAPI Jira / Confluence / Teams / Miro
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
35 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois