Trouvez votre prochaine offre d’emploi ou de mission freelance Grafana
Offre d'emploi
Expert Cloud AWS
Contexte & Objectifs de la mission Dans le cadre d’un projet de structuration de ses services Cloud, notre client recherche un Expert Cloud Ops AWS confirmé pour accompagner la construction d’une offre managée AWS . Cette mission s’inscrit dans une démarche d’ industrialisation et de sécurisation des services cloud au sein d’un centre de compétences technique. Activités principales Contribution à la conception et au cadrage de l’offre managée AWS Participation à la définition des standards, processus et bonnes pratiques Accompagnement des équipes internes dans la mise en œuvre de solutions AWS sécurisées et automatisées Support technique sur les environnements AWS dans un contexte de production et d’industrialisation Documentation des architectures, déploiements et procédures Compétences techniques requises Expertise confirmée sur AWS (services managés, infrastructure as code, sécurité, réseaux, supervision, etc.) Maîtrise des outils d’automatisation (ex : Terraform, Ansible ) Connaissances en CI/CD , DevOps , et infrastructure as code Connaissances en sécurité cloud , bonnes pratiques AWS (IAM, VPC, KMS…) Maîtrise des environnements Linux Connaissance d’outils de supervision/logs : CloudWatch, Prometheus, Grafana…
Mission freelance
Ingénieur Réseau & Sécurité
En tant qu'Ingénieur Réseau et Sécurité, vous interviendrez sur les activités suivantes : Administration, supervision et évolution des infrastructures réseau filaires et Wi-Fi Configuration et optimisation des protocoles de routage et overlay Déploiement, gestion et maintenance des solutions de sécurité réseau Mise en œuvre et supervision des solutions SSE Exploitation des environnements hybrides incluant Azure Supervision via Zabbix, PRTG et Grafana Analyse et résolution d’incidents complexes via tcpdump, Wireshark et autres outils de diagnostic Rédaction de documentation technique, procédures et modes opératoires Prise en charge des demandes datacenter Automatisation et industrialisation des tâches via scripting (Python, Bash) et IaC avec Terraform Bonne maîtrise des protocoles et services réseau
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Ingénieur DevOps / SRE OpenShift
Dans le cadre de l’évolution de son système d’information, notre client souhaite renforcer son équipe OPS avec un ingénieur DevOps / SRE expérimenté sur un périmètre OpenShift. L’objectif est d’accompagner les squads tout au long du cycle de vie des produits SI afin de garantir performance, robustesse, sécurité et fiabilité. Identifier dès la phase d’idéation les éléments permettant l’exploitabilité, la performance et la supervision des produits avec les concepteurs et développeurs. Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité. Contribuer à la mise à disposition et à la configuration des environnements. Automatiser et industrialiser les processus dans une logique « DevOps » pour le déploiement continu. Garantir l’exploitabilité et l’observabilité des produits (supervision, dashboards, reporting de qualité). Préconiser et suivre les éléments liés au capacity planning. Être garant de la complétude du dossier d’exploitabilité et du suivi de l’architecture. Créer et maintenir les dashboards d’observabilité, supports d’accompagnement, rapports d’incidents et matrices Qualité-Performance. Contribuer à l’amélioration continue des produits et processus.
Mission freelance
Expert DevSecOps
Contexte Dans le cadre de l’évolution et de la maintenance de la Plateforme DevOps du client, le poste vise à renforcer l’expertise technique sur les outils DevSecOps, en particulier GitLab CI. La mission comprend la participation aux travaux de migration de Jenkins vers GitLab, l’optimisation de la plateforme existante et la montée en compétence des équipes internes. Missions principales L’expert(e) DevSecOps aura pour principales responsabilités de : Maintenir et faire évoluer la Plateforme DevOps selon les besoins croissants de l’entreprise. Apporter une expertise technique sur GitLab CI/CD , GitLab CE/EE/Ultimate, et sur la stack logmining DevSecOps (Mimir, Loki, Grafana). Contribuer à la migration de Jenkins vers GitLab CI en collaboration avec l’équipe projet dédiée. Assurer le support technique et l’accompagnement des équipes internes dans l’utilisation et la maîtrise des outils DevSecOps. Optimiser les instances GitLab et les performances de la plateforme , notamment sur OpenShift. Mettre en place et diffuser les bonnes pratiques DevSecOps au sein des équipes. Suivre, analyser et traiter les incidents liés aux outils de la plateforme. Participer à des POC (Proof of Concept) tels que GitLab Ultimate et DUO. Développer et maintenir des services conteneurisés (Docker/OpenShift) et des scripts d’automatisation (Python). Collecter et exploiter les indicateurs via InfluxDB, Loki, Mimir et Grafana. Rédiger la documentation technique et opérationnelle (README, Confluence). Assister l’exploitant lors des mises en production (MEP).
Offre d'emploi
Développeur Java/.Net
En tant que Développeur, et en coordination avec l’équipe : - Vous contribuez à la conception des solutions techniques en respect des guidelines technologiques (analyses techniques, études…) - Vous participez à l’affinage du backlog, l’évaluation de la complexité, la conception, l’écriture des US et des spécifications - Vous participez pro-activement à l’ensemble des cérémonies agiles - Vous contribuez aux ateliers d’amélioration continue, à la veille technologique, aux partages de compétences dans le but d’améliorer l’expertise collective - Vous écrivez, debuggez, documentez, exécutez le code source et le déployez - Vous participez à la définition de la stratégie de tests (unitaires, assemblage, tests en charge…) et réalisez, a minima, les tests unitaires Vous êtes responsable de la qualité du produit. Pour ce faire vous adoptez les pratiques d’excellence dans le développement logiciel : clean code, refactoring, BDD, TDD, pair programing, revues de code, automatisation des tests… et embarquez au plus tôt lors du développement les contraintes de déploiement et d’exploitation. Vous participez à l’exploitation des produits en production : support, monitoring, suivi de performance, sécurité, gestion des incidents et requêtes utilisateurs. Vous participez activement à la vie d’équipe et de la DSI-métier (participation aux leagues, communication sur les réalisations dans les instances prévues, etc.)
Offre d'emploi
INGENIEUR DEVOPS F/H | LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client dans le cadre d'une transformation du SI vers un cloud privé. A ce tite, vous serez en charge de : Administrer, gérer et maintenir en conditions opérationnelles la plateforme cloud privée Suivre les clusters Kubernetes (Openshift) et de VM Gérer les scripts, tests unitaires et VM via Ansible Automatiser les procédures et standardiser les environnements Assurer le développement et la maintenance d'outils d'automatisation Créer des API internes pour assurer l'interface avec les autres systèmes Participer aux projets d'industrialisation avec Kubernetes, ArgoCD, Grafana, Prometheus Environnement Technique : Cloud privé, Kubernetes, Ansible, VMWare, Terraform, ArgoCD, Grafana, Prometheus, DevOps, Scripting, Python, API Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration.
Offre d'emploi
Ingénieur DevOps (H/F)
Vous aimez les environnements techniques exigeants, la rigueur du code bien pensé et les défis liés à l’automatisation et à la donnée ? Chez Scalesys , nous recherchons un Ingénieur DevOps passionné , à la fois développeur et intégrateur , prêt à relever les défis d’infrastructures critiques et d’applications complexes. Vous interviendrez au sein d’une entité publique, dans une division dédiée à la valorisation de la donnée et à l’ingénierie logicielle . L’équipe (environ 10 personnes) est en charge de la conception, du développement et de l’exploitation d’un parc applicatif et de stocks de données sensibles , utilisés par différents services de l’État. Votre expertise participera directement à la conception, la modernisation et la sécurisation de solutions logicielles et de plateformes de données utilisées dans des contextes sensibles et stratégiques.
Mission freelance
Expert Cloud - Azure & Terraform (F/H)
Missions : Définir et implémenter des mécanismes d’ observabilité (Azure Monitor, KQL, Application Insights, Log Analytics, Container Insights) et d’alerting multi‑niveaux. Mettre en place des dashboards et SLI/SLO/SLA pour la supervision proactive. Contribuer à la résilience : sauvegardes/restaurations natives Azure/AWS, DRP , tests réguliers. Concevoir et exécuter des scénarios de Chaos Engineering (Azure/AWS). Optimiser la gestion des incidents : runbooks, Status Page, webhooks Teams/Jira, post‑mortem. Automatiser via Terraform (modules AzureRM), Ansible et pipelines CI/CD (Azure DevOps/GitHub). Être force de proposition pour intégrer des solutions AIOps/GenAI (observabilité, remédiation).
Offre d'emploi
DevOps Kubernetes Engineer / SRE
Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.
Mission freelance
Product Owner Data (H/F)
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Offre d'emploi
Ingénieur de production H/F
Mission : Nous attendons de vous de préconiser et mettre en œuvre les solutions méthodologiques et techniques permettant d’optimiser la production informatique. Vous assurerez la coordination et le contrôle de la qualité de l’intégration d’une solution. Doté d'une bonne connaissance du patrimoine applicatif géré et d'un vernis technologique vous assurerez le lien avec les experts dans les socles. A cet titre vos principales missions seront : Analyser les besoins OS; Intégration technique : Assurer les mises en production et l’intégration de solutions sur des environnements de non prod et de prod Support : Gérer le Run quotidien via une activité de contrôle, surveillance et de gestion des incidents; Apporter un support de niveau 1 et 2 pour les applications nouvellement intégrées, rédiger les consignes pour le niveau 1 et assurer le niveau 2 pour les autres applications. Coordination interne : Travailler en lien avec les équipes projet pour garantir des mises en production réussies, conformes aux exigences opérationnelles Contribuer aux projets (Build) sous le pilotage d’un Chef de Projet; et collaborer avec les socles techniques; Coordination externe : Conseiller les équipes IT en Caisses Régionales Automatisation : amélioration continue des outils internes (monitoring, outils de reprise) ou création de vos outils pour améliorer l'efficacité opérationnelle, recherche de l’optimisation de l’intégration applicative Assurer la montée de nouvelles versions.
Mission freelance
Devops senior - Azure/OVH/Linux - Full remote - H/F
Contexte de la mission Rejoignez une entreprise innovante dans le secteur digital, en pleine transformation et croissance de son infrastructure. Basée à distance avec des activités de production hébergées principalement sur OVH et des environnements non-produits sur Azure, notre société recherche un DevOps Senior pour intégrer une équipe dynamique. Actuellement composée d'un junior, six administrateurs systèmes avec un accent sur l'automatisation, et soutenue par un DBA, l'équipe est en expansion. Le départ imminent d'un expert senior crée une opportunité unique d'apporter vos compétences techniques pointues à cette mission critique. Votre rôle sera central pour soutenir l'évolution de l'infrastructure et assurer la stabilité des projets en cours. Cette mission DevOps Senior est idéale pour les professionnels aimant les challenges techniques et ayant une forte autonomie. Missions principales : - Prendre en charge la réarchitecture de l'infrastructure sur OVH - Assurer la passation avec le profil sortant - Participer activement à l'automatisation des opérations, incluant gestion des certificats et secrets. - Développement et optimisation d'outils internes en Python - Evolutions Ansible et Terraform - Collaborer avec l'équipe existante pour raffiner le monitoring et éviter les alertes inutiles. - Soutenir le DBA dans l'amélioration de l'hébergement des bases de données. Environnement technique : - Plateformes : OVH pour la production, Azure pour les environnements hors production. - Intégrations : HAProxy, Prometheus, Loki, Grafana, PostgreSQL.
Mission freelance
Ingénieur de production Cloud
Nous recherchons 3 profils Ingénieur de production Cloud pour rejoindre notre client : 1 poste basé à Strasbourg 1 poste basé à Bordeaux 1 poste basé à Rouen 🎯 Expérience requise : minimum 8 ans dont 6 ans en environnement DevOps . Compétences techniques exigées : Expertise Linux (système & réseau) Cloud public ou privé Ansible , Terraform Grafana Jenkins ... .... ... .... .... ... .... . .. .... ... .... .... ... .... . .. .... ... .... .... ... .... . .. .... ... .... .... ... .... . .. .... ... .... ...
Offre d'emploi
Site Reliability Engineer (SRE) Azure (CDI)
Lieu : Paris Type de contrat : CDI Démarrage : Dès que possible À propos du poste Nous recherchons un Site Reliability Engineer (SRE) spécialisé Azure pour renforcer notre équipe technique. Vous serez au cœur de la fiabilité, de la performance et de l’automatisation de nos plateformes cloud. Votre mission sera de garantir la disponibilité et la résilience des services tout en apportant une expertise DevOps et une culture forte de l’observabilité. Responsabilités principales Assurer la fiabilité, la performance et la sécurité de nos environnements Azure. Mettre en œuvre et maintenir des infrastructures as code avec Terraform. Définir, suivre et améliorer les SLA, SLO et SLI pour garantir la qualité de service. Déployer et optimiser des pipelines CI/CD avec GitHub Actions. Mettre en place et maintenir des solutions d’observabilité et monitoring (Grafana, Prometheus, alerting). Collaborer avec les équipes de développement pour améliorer la résilience et l’efficacité des applications. Participer à la gestion des incidents et à l’amélioration continue des processus d’exploitation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.