Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud
Votre recherche renvoie 337 résultats.
Offre d'emploi
Lead Developer Node.js / AWS
Recrut Info
Publiée le
AWS Cloud
Node.js
52k-67k €
69009, Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Mission freelance
Ingénieur Cloud AWS – Migration & Exploitation (H/F)
Amontech
Publiée le
AWS Cloud
Oracle
SQL
6 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de ses équipes IT, une structure reconnue dans le secteur de l'aéronautique recherche 2 Ingénieurs Cloud AWS pour intervenir sur des projets à forte valeur ajoutée autour de la migration et de l’exploitation des environnements. Le poste s’inscrit dans une logique de collaboration long terme avec perspective d’intégration client . Missions : Participation à des projets de migration vers des environnements Cloud AWS Contribution aux activités de RUN / MCO / exploitation Suivi et optimisation des performances des environnements Support technique et résolution d’incidents Collaboration avec les équipes projet et infrastructure Environnement technique : AWS Bases de données (Oracle ou SQL Server) Environnements de production et d’exploitation
Mission freelance
ML platform senior DevOps engineer
Cherry Pick
Publiée le
AWS Cloud
MLOps
Terraform
12 mois
Paris, France
Équipes ML Platform et ML Lab L'équipe ML Platform est centrée sur l'amélioration de la productivité des chercheurs dans l'entraînement de modèles de machine learning (ML) en développant des bibliothèques, des services et des bonnes pratiques, et en assurant une production ML robuste à grande échelle. L'équipe est composée de profils travaillant sur des projets transverses ainsi que d'ingénieurs accompagnant les équipes fonctionnelles dans leur parcours ML. Le ML Lab est une équipe de recherche axée sur des travaux académiques, nécessitant donc des outils et une infrastructure dédiés en dehors de l'infrastructure du client, afin de pouvoir accéder librement aux ressources open source de pointe et collaborer avec des collaborateurs externes. Mission En tant qu'Ingénieur DevOps au sein de l'équipe ML Platform, vous tirerez parti de votre solide bagage en ingénierie logicielle, de votre maîtrise de Python et de votre expérience pratique avec les fournisseurs cloud pour faciliter le travail quotidien de l'équipe ML Lab sur — leur néocloud de référence — ainsi que les liens nécessaires avec l'infrastructure du client, principalement hébergée sur AWS. Responsabilités principales Configuration du fournisseur cloud (Lambda) pour l'accès GPU par le ML Lab. Fonctionnalités FinOps et protection minimale contre les erreurs humaines. Optimisation des images Docker pour un démarrage à froid plus rapide. Mise en place et maintenance de systèmes de monitoring pour l'entraînement des modèles. Participation mineure aux projets plus larges de l'équipe ML Platform sur AWS pour les autres chercheurs du client (CI/CD, outillage sur AWS, etc.). Promotion et mise en œuvre de processus d'automatisation. Renforcement des protocoles de sécurité via des évaluations de vulnérabilités et la gestion des risques pour déployer des mesures de cybersécurité.
Offre d'emploi
Ingénieur DevSecOps Cloud AWS- KBS
KEONI CONSULTING
Publiée le
AWS Cloud
Cloud
Grafana
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur DevSecOps Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur DevSecOps est Responsable de l'industrialisation des pipelines de livraison et de l'intégration des pratiques de sécurité tout au long du cycle de développement et de déploiement sur infrastructure AWS. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation EXPERTISE & Compétences clés attendues : · Maîtrise des outils CI/CD (GitLab CI, GitHub Actions, ArgoCD) · Infrastructure as Code avec Terraform et gestion des modules réutilisables · Orchestration de conteneurs Kubernetes (EKS) : nodes, autoscaling, namespaces, ingress · Sécurité applicative intégrée : scan de vulnérabilités (Trivy, Snyk), SAST/DAST · Gestion et gouvernance des images Docker (registry, policy, scan) · Implémentation des principes Zero Trust, IAM Roles et RBAC Kubernetes · Gestion des secrets et rotation de clés (AWS Secrets Manager, KMS) · Monitoring et observabilité (CloudWatch, Prometheus, Grafana, OpenTelemetry) · Conformité réglementaire : RGPD, CNIL, Cloud Act · Rédaction de runbooks d'exploitation et documentation des procédures CI/CD
Offre d'emploi
Développeur Fullstack (H/F) – Nantes
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Cypress
Datadog
1 an
10k-51k €
100-400 €
Nantes, Pays de la Loire
Contexte Dans le cadre du développement d’une application en marque blanche dédiée à la vente d’abonnements de nous recherchons un développeur fullstack pour intégrer une équipe agile à taille humaine (7 personnes), basée à Nantes. Vous évoluerez au sein d’une équipe SCRUM , dynamique et collaborative, avec une forte implication dans les choix techniques et fonctionnels. Vos missions Intégré(e) à l’équipe, vous interviendrez sur l’ensemble du cycle de vie de l’application : Maintenance et évolution de l’application existante Développement de nouvelles fonctionnalités Amélioration continue du socle technique Maintien et enrichissement des tests automatisés Exécution des tests de non-régression Déploiement des releases jusqu’en production Participation aux phases de conception en collaboration avec le Product Owner Vos livrables Développement de fonctions AWS Lambda Développement en TypeScript (backend & frontend) Rédaction et exécution de tests (unitaires, intégration, end-to-end) Réalisation de revues de code Rédaction de documents de conception technique Analyse et correction des anomalies Support aux problématiques d’exploitation Contribution au respect des critères d’acceptation des releases Participation aux cérémonies agiles (daily, sprint planning, rétrospective) Contribution à la qualité, la sécurité et la résilience de l’application Environnement technique Stack principale : AWS Lambda TypeScript React Cloudflare PostgreSQL DynamoDB CI/CD & outils : GitLab CI Cypress (tests automatisés) AWS CDK & Terraform Datadog
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Mission freelance
Chef de Projet Technique, Expert Cybersécurité – Contexte OSE & NIS (H/F)
CAT-AMANIA
Publiée le
AWS Cloud
DevSecOps
IAM
3 mois
400-650 €
Île-de-France, France
Chef de Projet Expert Cybersécurité – Contexte OSE & NIS (H/F) Le Contexte Rejoignez la Direction Technique Informatique (DTI) dans un environnement à fort enjeu national. Dans le cadre du renforcement de nos obligations de sécurité ( ANSSI : OSE, Directive NIS, ISO/IEC 27001 ), nous recherchons un expert capable de piloter des projets de sécurisation critiques et d’assurer la transition suite au départ d'un collaborateur clé. Votre Mission Votre objectif est d'assurer le pilotage de bout en bout , la mise en œuvre technique et le suivi opérationnel des projets de cybersécurité, tant sur nos environnements On-premise que Cloud . Vos chantiers prioritaires : Pilotage de plans de remédiation : Suite aux audits de sécurité et recommandations de l'ANSSI (type OSE). Identité & Accès (IAM) : Mise en œuvre de fédérations d’annuaires, MFA, SSO, gestion des annuaires AD / Azure AD et durcissement associé. Sécurité Réseau : Projets de segmentation, cloisonnement, et déploiement d’architectures réseau sécurisées (Firewalls, Bastion). Gouvernance & Expertise : Préparation des COPILs Sécurité, accompagnement des choix techniques et force de proposition auprès du Directeur de la DTI pour challenger les solutions techniques. Profil recherché : L'Expertise Technique Nous ne cherchons pas seulement un coordinateur, mais un profil "Hands-on" capable de comprendre et de valider les architectures techniques. Gestion de Projet : Maîtrise des méthodologies (Agile/Cycle en V) et outils de pilotage. Infrastructures & Réseaux : Expertise en durcissement système, segmentation réseau, PKI et certificats. Environnement Annuaire : Maîtrise avancée d'Active Directory, Azure AD et LDAP. Cloud Security : Notions solides sur les environnements Azure / AWS / GCP et les problématiques DevSecOps (CI/CD sécurisé, IaC). Conformité : Excellente connaissance des exigences ANSSI et des normes ISO 27001. Soft Skills Capacité à interagir avec des interlocuteurs de haut niveau (RSSI, Directeurs techniques). Esprit critique pour challenger les experts techniques et les prestataires. Excellentes capacités de synthèse et de reporting (indicateurs de risques, supports de comités).
Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)
AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake
4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Offre d'emploi
Développer Back end Kotlin Confirmé (4/6 ans d'experiences)
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Java
Kotlin
1 an
10k-57k €
100-500 €
Saint-Denis, Île-de-France
Rejoins un acteur majeur du numérique qui transforme la mobilité de demain Ici, on ne fait pas que développer du code — on conçoit des solutions digitales à fort impact, utilisées à grande échelle, pour simplifier les déplacements et améliorer l’expérience de millions d’utilisateurs. Le défi : faire parler la mobilité avec intelligence. Tu travailleras sur un chatbot conversationnel nouvelle génération qui accompagne les utilisateurs au quotidien : Informations temps réel (statuts, horaires, parcours…) Détails de voyage (quai, placement, desserte…) Services proposés Gestion des modifications et annulations Accessible via web et messageries instantanées, ce produit est un pilier de l’expérience utilisateur. Une stack technique moderne et ambitieuse Chatbot Open Source : framework conversationnel en Kotlin (TOCK) NLP & IA : services de machine learning managés Cloud & Data : AWS (S3, Sagemaker), MongoDB Infra : Kubernetes Front : React Tools : GitHub, GitLab CI, Sonar, Datadog Collaboration : Confluence, Jira, Teams, Miro Ton rôle : builder, améliorer, fiabiliser Intégré·e à une équipe agile, tu interviens sur tout le cycle de vie produit : Développement de nouvelles fonctionnalités (Kotlin) Mise en place de tests (unitaires, intégration, end-to-end) Code review & amélioration continue Monitoring, performance & stabilité en production Analyse d’anomalies & troubleshooting Conception technique & documentation Participation aux rituels agiles (daily, sprint, rétro…) Contribution à la qualité, sécurité et résilience
Mission freelance
Expert DBT Snowflake
ROCKET TALENTS
Publiée le
AWS Cloud
Snowflake
SQL
3 mois
400-550 €
Bezons, Île-de-France
Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie
Mission freelance
Consultant AWS Agentic
STHREE SAS pour COMPUTER FUTURES
Publiée le
Agent IA
AWS Cloud
3 mois
270-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Consultant AWS Agentic : Missions principales : Ø Concevoir et développer des agents intelligents basés sur AWS Bedrock AgentCore Ø Implémenter et configurer les composants AgentCore : Runtimes, Short-Term / Long-Term Memories, Observability, Identity, Gateway et Policy Ø Développer et orchestrer des workflows agentiques avec : LangChain, LangGraph Ø Intégrer les agents avec des APIs exposées via AWS API Gateway Ø Mettre en place la supervision et le monitoring via CloudWatch Ø Contribuer à l’industrialisation : CI/CD via GitHub Actions, Terraform pour les pipelines et l’infrastructure, Gestion des artefacts via Artifactory Ø Collaborer avec les équipes Front-End : FE développé en React, FE probablement hébergé sur OpenShift Ø Implémenter et respecter les protocoles agentiques :MCP (Model Context Protocol), A2A (Agent-to-Agent)
Mission freelance
Développeur Python AWS (confirmé)
TEOLIA CONSULTING
Publiée le
AWS Cloud
Cloud
Python
12 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour notre client un Développeur Python AWS confirmé pour contribuer à la conception et au développement de solutions innovantes orientées data et automatisation. Le consultant interviendra sur des projets à forte dimension exploratoire (POC, prototypes), avec un objectif de mise en production et d’industrialisation des solutions . Missions : Participer à l’idéation et à la définition de concepts innovants Développer des POC et prototypes (fullstack) Contribuer aux choix techniques et technologiques Évaluer des solutions externes (startups, partenaires…) Préparer l’ industrialisation des solutions développées Garantir le respect des standards techniques et sécurité SI Assurer la documentation et la transmission aux équipes internes Réaliser une veille technologique continue Participer à l’amélioration des pratiques et processus du Lab Environnement technique : Cloud : AWS (S3, Lambda, API Gateway, IAM, DynamoDB, RDS…) Infra as Code : Terraform Langages : Python (Boto3), SQL / NoSQL Backend / API : REST Data : Pandas, PySpark, data processing DevOps : Git, Linux Bonus : NLP, LLM, IA, AWS Bedrock
Offre d'emploi
Développeurs Full Stack Angular / NestJS (H/F)
QODEXIA
Publiée le
Angular
AWS Cloud
Azure
10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé.
Mission freelance
Senior Platform / SRE Engineer (Go / AWS / Kubernetes)
Sapiens Group
Publiée le
AWS Cloud
Datadog
Go (langage)
12 mois
500-530 €
Île-de-France, France
Responsabilités 1. Expertise SRE & Plateforme Observabilité & Alerting Piloter la stratégie de monitoring (Datadog, Prometheus, Grafana) Définir et implémenter les SLI / SLO Garantir la performance et la résilience des systèmes de diffusion publicitaire CI/CD & Automatisation Optimiser les pipelines (GitHub Actions, ArgoCD, Argo Workflows) Assurer des déploiements fluides, sécurisés et reproductibles sur AWS (EKS) Innovation & IA Participer aux POC autour de l’IA Intégrer des outils de type “copilotes” pour automatiser la transformation des User Stories en tâches techniques 2. Coordination Opérationnelle & Gestion des Flux Garant du "Ready for Dev" Valider la complétude et la qualité des dossiers de conception S’assurer que chaque sujet est clair, documenté et actionnable avant développement Synchronisation des équipes Fluidifier les échanges entre Product Owners et Solutions Architects Identifier les points de friction et anticiper les retards Standardisation & Suivi Définir et imposer des standards de documentation technique Mettre en place des outils de suivi assurant une visibilité complète sur l’avancement Réduire la dette organisationnelle Stack Technique Langage : Go Cloud : AWS Orchestration : Kubernetes (EKS) CI/CD : GitHub Actions, ArgoCD, Argo Workflows Observabilité : Datadog, Prometheus, Grafana Architecture : Systèmes distribués à forte contrainte de scalabilité
Mission freelance
Expert Dynatrace SaaS / AWS – Observability & Performance
WIKEYS
Publiée le
AWS Cloud
DevOps
Dynatrace
10 mois
400-550 €
Paris, France
Dans le cadre du renforcement de nos capacités en observabilité et monitoring avancé , nous recherchons un Expert Dynatrace capable d’intervenir sur des environnements cloud AWS en mode SaaS . Vous jouerez un rôle clé dans l’optimisation de la performance applicative, la supervision proactive et l’amélioration continue des systèmes. Responsabilités principales Déployer, configurer et administrer Dynatrace (mode SaaS) Mettre en place des stratégies avancées d’ observability (APM, logs, metrics, traces) Assurer le monitoring de systèmes distribués en environnement AWS (microservices, containers, Kubernetes) Analyser les performances applicatives et identifier les bottlenecks Implémenter des dashboards, alerting intelligent et automatisation Collaborer avec les équipes DevOps, Cloud et développement Participer à l’amélioration continue (SRE, performance engineering) Accompagner les équipes sur les bonnes pratiques (coaching / expertise)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
337 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois