Trouvez votre prochaine offre d’emploi ou de mission freelance Datadog à Paris
Votre recherche renvoie 10 résultats.
Mission freelance
Expert Datadog
Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes
3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Mission freelance
CONSULTANT OBSERVABILITE DATADOG
PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes
12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Mission freelance
Expert observabilité datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Offre d'emploi
Production Engineer (K8S / AWS / Datadog) — Lille (59)
NEWRAMA
Publiée le
Datadog
3 ans
Paris, France
Rejoignez une équipe d'experts Ops en charge de l'exploitation d'une plateforme digitale critique à très fort trafic. Au sein d’un domaine orienté RUN, Fiabilité et Performance, vous intervenez sur un environnement technologique de pointe où l'observabilité est la clé de la réussite. Ici, le défi est de garantir une disponibilité sans faille pour des millions d'utilisateurs quotidiens, tout en modernisant l'infrastructure en continu. Vos Objectifs En tant que Senior Production Engineer, vous portez une vision "Reliability" et industrialisez la production : Exploitation (RUN) : Assurer la disponibilité et la performance des applications en production. Observabilité & Pilotage : Utilisation avancée de Datadog pour le monitoring, la supervision de la QoS et le diagnostic. Gestion d'Incidents : Analyse, debug et pilotage des incidents majeurs (approche SRE). Modernisation : Contribuer aux chantiers de rebuild / refactoring (scalabilité et optimisation des coûts Cloud). Automatisation : Industrialiser les processus dans une approche GitOps / DevOps (FluxCD, GitLab CI). Stack Technique Cloud : AWS (Full Cloud) Orchestration : Kubernetes (K8S), Helm, FluxCD Infrastructure as Code : Terraform Observabilité : Datadog (Expertise indispensable) CI/CD / Container : GitLab CI, Docker Ecosystème : Cloudflare, Keycloak, MongoDB, Java
Mission freelance
Developpeur back end Python PostgreSQL - AWS
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
Architecte GCP Gouvernance
Groupe Aptenia
Publiée le
Azure
CI/CD
Datadog
3 mois
Paris, France
Mission d’Architecte Cloud orientée GCP au sein d’un acteur majeur de la fintech. L’objectif est de renforcer et structurer une plateforme GCP encore en croissance, tout en l’interconnectant avec une plateforme Azure déjà mature. Le rôle consiste à définir la gouvernance cloud (landing zones, IAM, sécurité, policies), concevoir l’architecture multi-cloud, et accompagner les équipes sur les bonnes pratiques DevOps et platform engineering. Forte expertise GCP requise, bonne connaissance d’Azure et de Terraform appréciée.
Offre d'emploi
Developpeur Full stack ReactJS /JVM- senior
KEONI CONSULTING
Publiée le
AWS Cloud
Datadog
Java
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un développeur fullstack senior sur un produit critique qui accompagne les conseillers clients dans les parcours après-vente (consultation, annulation, échange, etc.) et s’inscrit dans un écosystème applicatif complexe, composé de plus de 30 équipes organisées par produits et domaines. La mission s’inscrit dans un contexte de développement de nouvelles fonctionnalités, d’amélioration continue et d’évolution des pratiques de déploiement et de qualité logicielle. MISSIONS La mission suppose une intégration au sein d’une équipe agile pluridisciplinaire d’environ une petite dizaine de personnes (PO, QA, développeurs, DevOps), en charge du développement et de l’évolution du produit. Le développeur fullstack interviendra sur l’ensemble des couches applicatives : - Frontend (ReactJS), - Backend sur stack JVM (Java / Kotlin, Spring), - Chaîne CI/CD et déploiement sur environnement cloud AWS. Il devra maîtriser les bonnes pratiques de développement frontend et backend, ainsi que les principes de qualité logicielle, de tests automatisés, de livraison continue et d’exploitabilité en production. Une capacité à être rapidement autonome et à collaborer efficacement dans un environnement multi-équipes est attendue. Environnement technique : - Langages : Java (≥ 21), Kotlin, JavaScript - Frameworks : Spring / Spring Boot (backend), ReactJS (frontend) - Architecture & services : APIs REST, microservices, serverless - Cloud & Serverless : AWS (Lambda Node.js & JVM, API Gateway, S3) - Données : MongoDB, DynamoDB - Build & scripting : Gradle, Bash - CI/CD : GitLab CI, AWS - Monitoring : Datadog - Infrastructure as Code : Terraform Livrables La mission : • Développer et faire évoluer les fonctionnalités du backoffice en lien avec les besoins des équipes de relation client. • Contribuer à l’évolution des services backend de distribution. • Participer à la migration des composants applicatifs vers les nouveaux standards techniques et organisationnels (monorepo, continuous delivery). • Garantir la qualité des livrables sur l’ensemble du cycle : cadrage, développement, tests automatisés, validation. • Participer activement à l’intégration continue et aux déploiements automatisés. • Collaborer avec les autres équipes produit et techniques afin d’assurer la cohérence fonctionnelle et technique au sein de l’écosystème (30+ équipes). • Veiller à la qualité et à l’exploitabilité du produit en production. • S’impliquer dans la vie de l’équipe agile et partager son expertise avec les autres membres. Compétences Compétences techniques attendues : - Backend : Java 21 (Kotlin apprécié), Spring, Git. - Frontend : Typescript, ReactJS. - Expérience sur des environnements cloud, idéalement AWS. - Maîtrise des pratiques CI/CD, tests automatisés et qualité logicielle. - Bonne compréhension des problématiques de production et d’exploitabilité. Compétences fonctionnelles et comportementales : - Forte appétence produit et métier, capacité à comprendre les enjeux fonctionnels. - Expérience significative en développement avec une posture de référent technique ou de soutien aux autres développeurs. - Esprit collaboratif, proactif et autonome. - Capacité à communiquer efficacement dans un environnement multi-équipes.
Offre d'emploi
Cloud Network Engineer AWS
Tenth Revolution Group
Publiée le
AWS Cloud
CI/CD
Datadog
21k-70k €
Paris, France
Vous rejoignez une équipe qui conçoit et opère une plateforme IoT critique à grande échelle. Votre rôle : automatiser l’infrastructure réseau par le code , améliorer la sécurité et garantir la fiabilité globale du système. Vos responsabilités principales Automatisation & développement Développer des outils réseau en Python / TypeScript Concevoir des APIs et workflows d’automatisation du provisioning Industrialiser l’infrastructure via Infrastructure as Code (Terraform / CDK) Intégrer les solutions dans des pipelines CI/CD (GitHub Actions) Réseau cloud & scalabilité Faire évoluer l’architecture réseau cloud (VPC, routing, firewalling, peering, VPN) Participer à la gestion d’une flotte IoT 4G/5G en forte croissance Diagnostiquer et résoudre des incidents réseau à grande échelle Sécurité by design Automatiser la rotation des certificats (HTTPS, routeurs, tunnels VPN) Contribuer au hardening de l’infrastructure cloud et réseau Assurer la conformité et les exigences de cloud souverain Observabilité & fiabilité Mettre en place dashboards, alerting et SLO (Datadog) Automatiser la détection et la remédiation d’incidents Améliorer la résilience et la performance de la plateforme
Mission freelance
Cloud Network & Automation Engineer AWS
Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux
3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
10 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois