Trouvez votre prochaine offre d’emploi ou de mission freelance Datadog

Votre recherche renvoie 42 résultats.
CDI

Offre d'emploi
🚀 Platform Engineer / SRE (CDI et full remote) (H/F)

Pickmeup
Publiée le
Datadog
Go (langage)
Google Cloud Platform (GCP)

55k-65k €
Paris, France
🎯 Rôle & impact En tant que Platform Engineer / SRE (aka Platform Reliability Engineer 😄), tu joueras un rôle clé dans l’évolution de notre plateforme cloud-native. Ton impact se mesurera à ta capacité à : Réduire les frictions pour permettre aux équipes de développement de tester et déployer rapidement de nouvelles idées (jusqu’à de l’IA en production). Construire et opérer des systèmes fiables, scalables et observables (Kubernetes, CI/CD, GitOps, monitoring…). Co-construire les applications avec les équipes produit dans une vraie culture DevOps / SRE. Diffuser les bonnes pratiques autour de la fiabilité, de l’autonomie et de l’ownership. 👥 L’équipe Platform & Developer Experience La mission de l’équipe Platform & DevEx est de fournir à 40+ développeur·euses un environnement : simple à utiliser robuste en production permettant une forte autonomie L’équipe est composée de : 1 Head of Platform 1 DevEx Engineer 1 Security Engineer 3 Platform Engineers / SRE (dont toi) Notre credo : “You build it, you run it” — nous faisons en sorte que ce soit simple et agréable. 🧰 Stack technique (aperçu) Cloud & Orchestration : GCP, Kubernetes (GKE) Infra as Code / GitOps : Pulumi, Concourse (en transition vers FluxCD + Crossplane) CI/CD : GitHub Actions Observabilité : Datadog Réseau & sécurité : Cloudflare Data & messaging : PostgreSQL (CloudSQL), RabbitMQ (CloudAMQP) Packaging : Helm, Docker Langages : Python, Golang ⚙️ Ton rôle au quotidien 🧱 Expérience développeur Donner un maximum d’autonomie aux équipes de dev Créer un terrain de jeu sécurisé pour tester, apprendre et itérer vite Faciliter l’industrialisation avec une production solide et observable ☁️ Fondamentaux plateforme Apporter l’expertise cloud & infrastructure (IaC, CI/CD, DNS, CDN…) Être garant·e des niveaux de service de la plateforme Accompagner les équipes produit sur leurs enjeux de SLO / fiabilité
Freelance

Mission freelance
Platform Reliability Engineer SRE & DevOps

Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog

12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
CDI

Offre d'emploi
Cloud Network & Automation Engineer AWS

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Gateway

55k-80k €
Paris, France
Dans un contexte de forte croissance, l’entreprise renforce son infrastructure cloud et réseau afin de garantir une plateforme fiable, sécurisée et hautement scalable au service des collectivités et de la sécurité urbaine. En tant que Cloud Network & Automation Engineer , tu joueras un rôle clé dans la continuité opérationnelle , la résilience des infrastructures et l’ automatisation des environnements réseau et cloud . Tu interviendras sur des infrastructures critiques, en lien étroit avec les équipes Cloud, Ops, API et Produit. Ton objectif : augmenter la fiabilité, la sécurité et l’observabilité des systèmes en production, tout en réduisant la dette technique grâce à l’IaC et à des pratiques DevSecOps solides.
Freelance

Mission freelance
Mission Freelance – DBA SQL Server / PostgreSQL (H/F)

SKILLWISE
Publiée le
Databricks
Datadog
Microsoft SQL Server

6 mois
100-550 €
Paris, France
Nous recherchons un DBA freelance confirmé pour accompagner un grand groupe français du secteur médias & digital dans l’administration, l’optimisation et l’industrialisation de ses bases de données, dans des environnements On-Premise, Azure et AWS . La mission s’inscrit au sein d’une équipe d’experts bases de données , intervenant à la fois sur le support de niveau 3 et sur l’ accompagnement de projets applicatifs . Vous interviendrez sur deux grands volets : 🔧 Support & Expertise DBA (environ 30 %) Assurer le support N3 sur les bases de données Analyser les incidents (connexion, sauvegardes, performances, etc.) Proposer et mettre en œuvre des solutions de contournement ou de correction Rédiger les procédures de résolution d’incidents Analyser et résoudre les problématiques de performance Mettre en place et améliorer la supervision des bases de données Une connaissance de Datadog est un plus 🏗️ Accompagnement projets (environ 70 %) Définir les architectures bases de données et les normes de mise en œuvre Conseiller sur la sécurité des accès et les bonnes pratiques Accompagner les équipes applicatives sur les flux de données Participer à la mise en place de solutions d’automatisation : Pipelines Infrastructure as Code (Terraform) Scripts (PowerShell, etc.)
Freelance

Mission freelance
Product Owner Technique (Performance & Quality Gate)

Cherry Pick
Publiée le
AWS Cloud
CI/CD
Datadog

12 mois
560 €
Paris, France
Missions Générales Rattaché(e) à la plateforme technique, vous pilotez les produits et services dédiés à la validation de la performance , de la scalabilité et de la qualité des applications. Vous dirigez une équipe de Tech Performance Engineers pour fournir aux équipes de développement des outils d'automatisation (tests de charge, benchmarking) et des standards de "Quality Gate" garantissant la fiabilité avant mise en production. Responsabilités Principales Pilotage du Product Backlog : Identifier les besoins (story mapping), rédiger les US techniques et prioriser les développements selon la valeur métier et la capacité de l'équipe. Garant de la Performance & Qualité : Définir les seuils acceptables (temps de réponse, SLA), suivre les anomalies et co-construire les KPIs de couverture de tests avec les parties prenantes. Vision & Roadmap : Anticiper les besoins futurs (pics de charge, nouveaux canaux) et porter la stratégie de Shift-Left Testing (tester plus tôt dans le cycle de vie). Évangélisation : Promouvoir l'adoption des outils de performance et animer la communauté de pratique interne. Amélioration Continue : Effectuer des benchmarks d'outils (Load testing, APM) et organiser les retours d'expérience (REX). Livrables Clés Roadmap Produit hiérarchisée et Backlog d'User Stories techniques. Standards de Quality Gate (critères de validation et seuils d'acceptabilité). Tableaux de bord de suivi (KPIs de couverture, résultats de charge, tendances). Documentation technique et guides de bonnes pratiques pour les utilisateurs internes.
Freelance

Mission freelance
Expert Technique Cash Management (H/F)

Comet
Publiée le
Apache Kafka
Apache Spark
API REST

60 jours
650-750 €
Maisons-Alfort, Île-de-France
Dans le cadre d’un projet existant , vous rejoignez une équipe agile Cash Management , au sein du socle Trésorerie & Paiements d’un grand acteur institutionnel du secteur financier. Vous intervenez en tant qu’ expert technique , avec un fort niveau d’autonomie et un rôle clé dans les décisions techniques. 🛠️ Missions principales : Développement et maintenance d’applications backend à forte criticité Traitement de flux de données (événementiels et fichiers) à grande volumétrie Participation aux choix d’architecture et aux bonnes pratiques techniques Garantie de la qualité, de la performance et de la résilience des applications Supervision et suivi en production 💻 Environnement technique Back-end & Data Apache Spark Scala, Java, Python Akka / Kafka API REST (TYK) SQL DevOps & Qualité Jenkins Kubernetes Docker Sonar Datadog Hadoop
Freelance

Mission freelance
Accompagner DBA SQL SERVER / POSTGRESQL AZUR & AWS

Comet
Publiée le
Datadog
Microsoft SQL Server
PostgreSQL

12 mois
400-620 €
Île-de-France, France
Compétences techniques : SQL SERVER - Expert - Important POSTGRESQL - Confirmé - Important Description détaillée : Au sein d'une équipe d'expert des bases de données, l'expert DBA devra : -- assurer les incidents N3 sur les bases de données : 30 % de l'activité -- analyser, proposer des solutions de contournement ou des corrections, rédiger des procédures de résolution sur des incidents de bases de données ( ex: erreur de connexion, de sauvegardes, ....) -- analyser et proposer des solutions sur les baisses de performance sur les bases de données -- mettre en place de la supervision sur les différentes type de bases. Une bonne connaissance de DATADOG est un plus. -- accompagner les projets de mise en oeuvre d'applications : 70 % de l'activité -- proposer des solutions de mise en oeuvre des bases de données : architecture, normes de mise en place, conseil sur la sécurité d'acces -- accompagner sur des solutions applicatives sur les bases de données : solutions de mise en oeuvre des flux de données -- réaliser des automatisations : pipelines, code terraform, ... sur les bases de données Périmètre : Base de données : SQL SERVER, PostGreSQL Domaine : On Prem et Azure PAAS ou AWS RDS Des connaissances sur ORACLE seraient appréciées. Des connaissances sur Databrick ou Snowflake serait un plus. Automatisation : Connaissance des pipelines, code terraform , powershell fortement appréciable Il gère et administre les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Il participe à la définition et à la mise en oeuvre des bases de données et des progiciels retenus par l'entreprise.
Freelance
CDI

Offre d'emploi
Développeur Back-End Node/NestJS – Expert (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Back-end
Datadog

1 an
Lille, Hauts-de-France
Contexte du projet : Nous recherchons un expert technique back-end pour rejoindre une équipe agile responsable d’un composant stratégique de notre plateforme digitale. Ce module centralise et expose des millions d’offres produits et services pour alimenter l’ensemble de l’écosystème SI (web, omnicanal, encaissement, etc.). Environnement à forte volumétrie et performance critique : 20 milliards d’appels API/mois Big Data : plusieurs centaines de millions d’offres Scalabilité : architecture conçue pour absorber des pics de charge et garantir une haute disponibilité Vos missions : Concevoir et développer des fonctionnalités back-end robustes et performantes Appliquer les principes Software Craftsmanship : TDD, BDD, Clean Code Participer à la définition et à l’évolution de l’architecture (Hexagonale, Event-Driven) Intégrer et optimiser les flux de données (Kafka, MongoDB) Garantir la qualité et la maintenabilité du code dans un contexte critique Collaborer avec une équipe autonome et passionnée par la qualité logicielle Stack technique & compétences : Langages & Frameworks : TypeScript, Node.js, NestJS (expertise confirmée) Architecture : Hexagonale, Onion, Event-Driven, DDD Messaging & Data : Kafka, MongoDB Pratiques : TDD, BDD, Clean Code Observabilité : Datadog (monitoring de performance) CI/CD & Cloud : GitLab, Docker, Kubernetes (bonus)
Freelance

Mission freelance
Tech Lead Build FullStack

Codezys
Publiée le
Angular
AngularJS
API

6 mois
Lille, Hauts-de-France
Développement d'un produit from scratch axé sur l'actionnariat en entreprise. Backend : Framework : Node.js, NestJS, Spring Boot Langages : JavaScript, TypeScript, Java Base de données : MongoDB Intégration et déploiement continus (CI/CD) : Docker, Github Actions, Kubernetes Monitoring : Datadog Cloud : Google Cloud Platform (GCP) Frontend : Vue.js 3 Soft skills : Profil développeur : Solide compétence technique Capacité à rechercher l'information efficacement, notamment en communiquant avec les équipes internes (par exemple via Slack) Sens du détail et souci de la qualité du produit dans sa globalité Maîtrise de l'anglais minimum B2 Objectifs et livrables : Amélioration du niveau d'anglais professionnel Bonus : compétences en assurance qualité (QA), notamment avec des frameworks automatisés tels que Cypress
Freelance

Mission freelance
Chef de Projet Intégration Systèmes – SAP S/4 / Salesforce

Groupe Aptenia
Publiée le
Apache Kafka
Datadog
Enterprise Service Bus (ESB)

6 mois
Courbevoie, Île-de-France
Dans le cadre du renforcement de la fiabilité et de la cohérence des données circulant entre SAP S/4HANA et Salesforce, nous recherchons un Chef de projet spécialisé dans les intégrations complexes, capable de piloter et d’optimiser les flux order-to-cash (Orders, Deliveries, Invoices). Les échanges inter-systèmes s’appuient principalement sur Kafka et Mulesoft, et les analyses de données sur Snowflake et Datadog 1. Pilotage de projet & coordination • Gérer l’ensemble du cycle de vie des projets d’intégration entre SAP S/4 et Salesforce. • Coordonner les équipes internes (IT, Data, Salesforce, SAP, Support) et les partenaires externes. • Définir et suivre la roadmap d’amélioration continue des flux inter-systèmes. • Animer les comités projet, rédiger les comptes rendus, assurer le suivi des actions. 2. Analyse et optimisation des flux de données • Comprendre et cartographier les flux existants concernant Orders, Deliveries, Invoices. • Identifier les écarts, incohérences ou ruptures de synchronisation entre SAP S/4 et Salesforce. • Proposer des optimisations techniques et fonctionnelles pour réduire les delta de données. • Concevoir et documenter les règles de gestion d'intégration / transformations des données. 3. Supervision, monitoring & résolution de problèmes • Utiliser Datadog pour superviser les flux Kafka et Mulesoft, détecter les anomalies et mettre en place des alertes pertinentes. • Identifier et prioriser les causes d’erreurs (pareto), et proposer des plans de remédiation. • Piloter la résolution des incidents critiques, suivre la qualité des données et la stabilité des interfaces. • Contribuer à l’amélioration du SI en mettant en place des standards et bonnes pratiques de monitoring. 4. Reporting, analyse et exploitation de Snowflake • Construire des rapports d’analyse basés sur Snowflake pour suivre la qualité et la cohérence des transactions. • Mettre en place des indicateurs de performance pour le monitoring des flux (completeness, latency, error rate…). • Fournir des analyses régulières au management sur l’évolution des écarts et des incidents.
Freelance
CDI

Offre d'emploi
Ops Engineer / Ingénieur SRE (H/F)

WINSIDE Technology
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
AWS CloudFormation

1 an
40k-50k €
400-450 €
Lille, Hauts-de-France
Contexte Notre client souhaite renforcer son équipe Accompagnement Résilience . L’objectif : maintenir un équilibre optimal entre performance , fiabilité et maîtrise budgétaire au sein de ses plateformes Cloud. Nous recherchons un Ops Engineer / SRE confirmé (H/F) , capable d’intervenir sur des environnements AWS complexes et orientés résilience. MissionsPilotage et ingénierie de la résilience Participer à la définition, au suivi et au pilotage des SLO / SLI / SLA Réaliser des audits de résilience et présenter les recommandations Contribuer aux analyses d’incidents et aux post-mortems Industrialisation & automatisation Industrialiser les processus de déploiement , exploitation et tests de résilience Concevoir et maintenir des scripts d’automatisation (Bash, Python) Administrer et optimiser les outils de résilience : Gatling, Gremlin, tableaux de bord SLO… AWS & performance Exploiter, optimiser et sécuriser les environnements AWS dans une démarche SRE Challenger les équipes sur les choix techniques / architecturaux Être force de proposition pour l’optimisation performance / coût Livrables attendusLivrables techniques Plateformes et outils de résilience opérationnels Scripts d’automatisation / industrialisation Tableaux de bord SLO, métriques & KPIs Cloud Scénarios de tests de charge et de chaos engineering Documentation Documentation d’exploitation Procédures de résilience Guides d’usage des outils Rapports d’audit & comptes-rendus d’incidents Plans d’amélioration continue Compétences requises Compétences techniques Maîtrise avancée Linux / Unix Expertise AWS , dont : EC2, ECS/EKS, Lambda, IAM, VPC, RDS, S3, CloudWatch Architectures Cloud natives & distribuées Haute disponibilité & résilience Cloud Outils de test de charge : Gatling (ou équivalent) Chaos Engineering : Gremlin (ou équivalent) Observabilité & monitoring : Datadog, Prometheus, Grafana Automatisation & CI/CD IaC : Terraform, CloudFormation Scripts Bash / Python Git & gestion de configuration Méthodologies Approche SRE & DevOps Définition / pilotage SLO, SLI, SLA Pratique d’analyses d’incidents Expérience en environnement agile
Freelance
CDI

Offre d'emploi
Chef de Projet - Développeur Python Dynatrace

R&S TELECOM
Publiée le
Confluence
Datadog
Dynatrace

12 mois
40k-48k €
400-480 €
Île-de-France, France
Au sein de l'équipe client, l’administrateur Dynatrace travaillera en coordination avec l’exploitation et les équipes de développement pour superviser l’ensemble des environnements applicatifs et infrastructures. La prestation s’inscrit dans une démarche de suivi proactif de la performance et de réduction des incidents critiques. L’administrateur sera également en interaction avec les équipes internes pour fournir des tableaux de bord, des alertes et des rapports de performance. Les OBJECTIFS ATTENDUS sont : Garantir la stabilité et la performance optimale des applications et infrastructures, réduire le temps moyen de résolution des incidents et fournir une visibilité complète sur l’état du SI à l’exploitation et à la direction. Profil du candidat Chef de projet développeur, principalement en charge de développer et maintenir les plugins en Python sur l’outil de monitoring Dynatrace. Expertise en développement Python et optimisation de scripts existants indispensable. Maîtrise de Dynatrace (Full-stack monitoring, Cloud monitoring, Synthetic monitoring). Connaissance des environnements Java, .NET, Node.js, bases de données, serveurs et containers. Expérience en administration IT et monitoring applicatif (3 à 5 ans minimum). Capacité d’analyse et résolution de problèmes de performance complexe. Connaissance des environnements cloud (AWS, Azure, GCP) est un plus. Qualités relationnelles pour collaborer avec équipes développement et exploitation Compétences obligatoires : Algorithmie Langage Python (Expert) Système : Linux (terminal, scripting Bash) Notion de base de réseau (HTTP, SSH, FTP) Travail en équipe Autonome Force de propositions Compétences appréciables : Langages : Javascript, NodeJS Administration Jira / Confluence Connaissance des outils Dynatrace et/ou Datadog Développement plugins Jira / Confluence Anglais parlé et écrit
Freelance

Mission freelance
Senior DevOps & Cloud Engineer

OGESSI
Publiée le
API
Argo CD
AWS Cloud

6 mois
Paris, France
Contexte mission Expert technique moteur de la transformation numérique, le Senior DevOps & Cloud Engineer conçoit et pilote des architectures cloud complexes, sécurisées et scalables. Véritable mentor pour les équipes de développement, il garantit l'excellence opérationnelle et l'optimisation continue des coûts et de la performance des infrastructures. Missions Concevoir des architectures cibles sur AWS (Serverless, micro-services) en intégrant les contraintes FinOps et Sécurité. Piloter l'industrialisation des déploiements via des approches avancées d'Infrastructure as Code (Terraform, Terragrunt, CDK). Orchestrer des environnements conteneurisés critiques sous Kubernetes et OpenShift. Optimiser les toolchains CI/CD (Jenkins, GitLab CI) pour réduire le "Time-to-Market" des produits. Définir la stratégie de monitoring et d'observabilité (Datadog, Dynatrace, ELK) pour anticiper les incidents de production. Acculturer les parties prenantes aux principes DevSecOps et assurer la veille technologique. Compétences attendues Expertise Cloud & Infrastructure as Code (IaC) Maîtrise avancée d'AWS : Une expertise approfondie est requise sur les services fondamentaux et avancés, notamment Lambda, API Gateway, VPC et la gestion fine des identités avec IAM. Industrialisation avec Terraform & Terragrunt : Capacité à concevoir des infrastructures complexes, modulaires et scalables. Développement d'Infra avec AWS CDK : Maîtrise du déploiement d'infrastructure via le code (TypeScript/Python). Atouts : Une connaissance du Multi-cloud (Azure ou GCP) ainsi que des outils comme Pulumi ou CloudFormation sera fortement valorisée. Orchestration, Conteneurisation & Middleware Kubernetes & OpenShift : Expertise dans le déploiement et la gestion d'environnements conteneurisés critiques. Docker : Maîtrise de la création et de l'optimisation des images de conteneurs. Gestion des flux : Expérience sur Kafka pour les architectures orientées événements. Atouts : Maîtrise d'un Service Mesh (Istio) et des outils de déploiement GitOps comme ArgoCD. CI/CD, Automatisation & Qualité Pipelines complexes : Conception et maintenance de chaînes CI/CD sous Jenkins (maîtrise des Shared Libraries/Groovy) et GitLab CI. Gestion de configuration : Utilisation experte d'Ansible pour l'automatisation des déploiements et de la configuration. Tests de performance : Capacité à piloter des campagnes de tests avec Gatling. Observabilité, Scripting & Data Monitoring de pointe : Mise en place et exploitation de solutions comme Datadog, Dynatrace ou la Stack ELK pour assurer une visibilité totale sur les systèmes. Développement & Scripting : Maîtrise de Python, Shell et TypeScript pour l'automatisation et le tooling interne. Bases de données : Gestion des bases PostgreSQL et services managés type RDS. Atouts : Expérience avec OpenTelemetry, Prometheus ou Grafana.
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
CDI

Offre d'emploi
Tech Lead back C#/.Net - SaaS B2B - Nice (H/F)

EASY PARTNER
Publiée le
.NET
C#

60k-65k €
Nice, Provence-Alpes-Côte d'Azur
Contexte du poste Au sein d’une entreprise technologique en pleine croissance, basée à Nice, nous développons un CRM B2B en mode SaaS à destination des équipes commerciales et de support client. Notre plateforme propose des outils avancés de gestion de campagnes multicanales (SMS, email, callbot), d’automatisation des workflows et de suivi des performances. Une refonte majeure de l’architecture technique est en cours, portée par le nouveau CTO : l’objectif est de casser le monolithe actuel et de migrer vers une architecture microservices, plus performante, sécurisée et évolutive. Nous recherchons un(e) Tech lead Back-end, autonome et expérimenté(e), pour prendre en charge des développements clés et contribuer directement à l’évolution de l’architecture. Missions principales Participer activement à la refonte du back-end (migration vers une architecture microservices). Concevoir, développer et maintenir des fonctionnalités cœur du produit (moteur de workflows, APIs REST). Garantir la qualité et la fiabilité du code : tests automatisés (unitaires, intégration, contract), revues de code. Sécurité & conformité : gestion des rôles, authentification, gestion des secrets, RGPD, audit logs. Ops & performance : participation à la mise en production, monitoring et observabilité (Datadog). Contribuer aux choix d’architecture technique en lien avec le CTO. Stack technique à maîtriser Langages : C# / .NET (stack principale) Bases de données : PostgreSQL, MongoDB. APIs REST : versionnement, documentation, performance. Infra : Azure & OVH, Docker, IaC (Terraform). CI/CD : Azure DevOps. Observabilité : Datadog. Collaboration : Microsoft Teams, SharePoint. Environnement produit CRM SaaS B2B à forte volumétrie et enjeux de scalabilité. Campagnes multicanales (SMS, email, callbot). Automatisation et structuration de workflows métiers personnalisés. Intégration de solutions de paiement. Projet structuré autour d’une refonte complète de l’architecture technique.
CDI

Offre d'emploi
Site Reliability Engineer (F-H)

INFOGENE
Publiée le

35k-40k €
Lille, Hauts-de-France
En tant que Site Reliability Engineer (SRE) Transverse , vous intervenez sur la fiabilisation, l’exploitation et l’optimisation de plateformes, dans un environnement cloud-native à fort enjeu de production . Votre rôle est central dans le Run et le MCO des services, la gestion des incidents et l’amélioration continue de la fiabilité, avec une utilisation avancée des outils de monitoring et d’observabilité , notamment Datadog , ainsi qu’une forte culture de l’ automatisation . Vous intervenez sur l’ensemble du cycle de vie des services en production, de la mise en exploitation à l’amélioration de la résilience et de la performance, avec une attention particulière portée à la disponibilité, la stabilité, la traçabilité et la réduction du toil , dans un contexte cloud GCP / Kubernetes , CI/CD (GitHub) .
42 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous