L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 365 résultats.
Mission freelance
Expert Développement Python / FastAPI (F/H)
CELAD
Publiée le
Angular
Ansible
Artifactory
12 mois
400-480 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Développement Python / FastAPI pour intervenir chez un de nos clients dans le secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et déployer des APIs de gestion des infrastructures avec Python et FastAPI - Collaborer avec les équipes infrastructure pour la migration vers des solutions API cibles - Intégrer et configurer les outils DEVOPS : Jenkins, Bitbucket, Artifactory - Réaliser les tests unitaires et assurer la stabilité et la performance des services - Définir de nouvelles APIs en collaboration avec les équipes métiers et d’architecture - Déployer les APIs sur les différents environnements et suivre leur cycle de vie - Contribuer à l’amélioration continue des pratiques de développement et à la sécurité des solutions - Accompagner les équipes dans l’autonomisation sur le développement et la gestion des APIs
Mission freelance
Expert OpenStack / Cloud Private (Réseau & Stockage)
ADSearch
Publiée le
Ansible
Bash
CI/CD
3 mois
Île-de-France, France
À propos du poste Nous recherchons un(e) Expert OpenStack pour concevoir, opérer et faire évoluer une plateforme cloud privé basée sur OpenStack, avec une forte dimension réseau et stockage persistant (Cinder/Manila, backends NetApp / Pure Storage / Ceph). Vous interviendrez sur des sujets d’industrialisation, de performance, de disponibilité, et d’automatisation (Infrastructure as Code / CI-CD). Vos missions Concevoir et maintenir une architecture OpenStack (control plane & compute) robuste et scalable. Déployer et opérer les services clés : Keystone, Nova, Neutron, Glance, Cinder, Manila, Horizon (et selon contexte : Octavia, Designate, Barbican). Assurer l’architecture et l’exploitation Neutron : VLAN/VXLAN, L2/L3, routing, DHCP, security groups, troubleshooting dataplane. Intégrer et maintenir le stockage persistant : NetApp (ONTAP, NFS/iSCSI, backends Cinder/Manila, Trident si K8s, bonnes pratiques HA/perf) Pure Storage (FlashArray, iSCSI/FC selon contexte, intégration OpenStack) Ceph (RBD/CephFS, réplication/erasure coding, tuning perf, santé cluster) Mettre en place l’ observabilité : monitoring, logs, métriques, capacity planning, SLO/SLA. Automatiser via Ansible / Terraform / Helm / GitLab CI (selon environnement). Participer aux analyses d’incidents, RCA, durcissement sécurité, patching & upgrades. Environnement technique (exemples) OpenStack (Kolla-Ansible / TripleO / Charms / distributions vendor) Linux (RHEL / Ubuntu), Python, Bash Réseau : EVPN/VXLAN (si présent), BGP, OSPF, LACP/MLAG, firewalling, load-balancing Stockage : NetApp ONTAP, Pure Storage FlashArray, Ceph (RBD/CephFS), NFS, iSCSI, éventuellement FC Virtualisation : KVM, libvirt Outils : Git, CI/CD, Prometheus/Grafana, ELK/Opensearch Soft skills Autonomie, rigueur, sens du service Esprit d’analyse et approche “problem solver” Communication claire (écrit/oral), capacité à vulgariser
Offre d'emploi
Développeur .Net
Degetel
Publiée le
.NET
API REST
ASP.NET
Strasbourg, Grand Est
À propos de l’entreprise Créée en 2008, Technology & Strategy est une société d’ingénierie franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Développeur .NET (H/F) – Strasbourg Nous recherchons un Développeur .NET pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets applicatifs à forte valeur métier dans des secteurs variés (banque, assurance, santé, industrie…). 🛠️ Vos missions Développer et maintenir des applications en C# / .NET Core Concevoir et intégrer des API REST performantes Réaliser des tests unitaires et d’intégration Participer aux revues de code et à la documentation Travailler main dans la main avec les équipes produit, projet et QA Garantir la qualité, la performance et la fiabilité des solutions 🚀 🎓 Profil recherché Formation : Bac+3 à Bac+5 en informatique Expérience : 2 ans minimum sur des projets .NET / C# Compétences techniques : C#, .NET Core, Web API, Entity Framework, SQL Server, Git, Azure DevOps, CI/CD Méthodologie : Agile Qualités : esprit d’équipe, curiosité, rigueur, autonomie 📌 Informations principales Contrat : CDI Lieu : Strasbourg Démarrage : Dès que possible Diversité & inclusion Nos équipes fonctionnent comme des structures à taille humaine : passionnées, accessibles et impliquées dans les projets de transformation technologique. PME comme grands groupes, nous accompagnons tous nos clients avec la même exigence et la même énergie. 👉 Envie de rejoindre notre équipe strasbourgeoise ? Postulez et prenez part à des projets où vos idées comptent vraiment !
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Mission freelance
DevSecOps Cloud AWS (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
Mission freelance
Ingénieur DevOps (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
DevOps
Kubernetes
12 mois
400-630 €
Paris, France
OBJET Le présent marché a pour objet : - D’industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD ; - D’assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day‑2 Ops, automatisation) ; - De piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on‑prem et AWS). CONTEXTE La prestation concerne les activités nécessaires à une démarche DevOps chez notre client et l’amélioration de l’usine CI/CD dans notre chaine de Delivery. L'équipe en charge de ces activités travaille en étroite collaboration avec les équipes sécurité du SI , développement et exploitation sur la mise en place de cette chaine. L'équipe travaille aussi sur la mise en place de certaines infrastructures d'hébergement, sur les nouveaux projets, en y connectant notre usine logicielle et outils CI/CD mis en place. La mission se déroule au sein de l’équipe DEVOPS. La mission vise ainsi à : Fournir des conseils sur les bonnes pratiques de conception architecturale pour de multiples applications dans le cloud AWS et projets de l'entreprise ; Évaluer les besoins en matière d'applications cloud et à formuler des recommandations architecturales pour la mise en œuvre, le déploiement et l'approvisionnement des applications sur AWS ; Contribuer à réduire les cycles de livraison des solutions applicatives via l'automatisation ; Contribuer à l'amélioration continue de notre usine logicielle (CI/CD) ; OBJECTIFS ATTENDUS • Réalisation et restitution d’études et de PoC ; • Documentation de l’activité et des process ; • Conception et maintien des outils et de services ; • Collaboration aux projets : conseil, fourniture des éléments nécessaire aux chefs de projet, participation et contribution aux instances des projets ; • Collaboration à des projets impliquant une architecture complexe, des systèmes découplés, des interactions entre services gérés par différents acteurs ; • Rédaction de Document d’Exploitation (DEX) ; • Reporting d’activité (fréquences hebdomadaire et mensuelle). Une période de montée en compétence est prévue en début de mission, avec une prise de responsabilité progressive.
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Mission freelance
TECH LEAD - AWS DATA ENGINEER
CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow
3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Mission freelance
Tech Lead VB.NET
Oceane consulting
Publiée le
Azure DevOps
GitLab CI
Microsoft SQL Server
15 mois
500-560 €
Paris, France
Rôle: Pilotage technique d’une équipe de 4 à 5 développeurs et supervision de la qualité des développements. issions principales : Encadrer et accompagner une équipe de développeurs. Garantir la qualité du code et l’application des bonnes pratiques (Clean Code). Mettre en place et suivre les processus de qualité, de tests et d’intégration continue. Superviser les pipelines CI/CD avec GitLab et Azure DevOps. Analyser et résoudre les problématiques de performance. Optimiser et sécuriser les requêtes SQL / PL-SQL sur base de données Oracle. Traiter les sujets liés à l’obsolescence technique et proposer des améliorations. Participer aux choix d’architecture et aux décisions techniques.
Offre d'emploi
Consultant.e DevOps & AWS F/H
METSYS
Publiée le
AWS Cloud
DevOps
Gitlab
55k-67k €
La Défense, Île-de-France
Pour l'un de nos clients grands-comptes, leader dans son secteur d'intervention et de renommée nationale et internationale, nous recherchons un.e Consultant.e DevOps & AWS (F/H) pour un démarrage dès que possible à La Défense (92). Dans le cadre de cette mission, vous interviendrez sur les problématiques DevOps et AWS traitées par notre client. Vous interviendrez via les outils Terraform, Gitlab et Terragrunt. Plus précisément, vous interviendrez à 70 % sur du Cloud et 30% sur DevOps AWS Gitlab : upgrade, runner, création des pipeline. Vous serez là en accompagnement des équipes à créer les pipelines. Ce descriptif n'est pas exhaustif.
Offre d'emploi
Data Engineer / Data Ops (H/F)
QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure
10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Offre d'emploi
Tech Lead C++ (F/H)
cty
Publiée le
C/C++
CI/CD
Oracle
3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Front Office dédiée à l’activité Actions au sein d’un grand acteur du secteur financier, nous recherchons un Tech Lead C++ spécialisé Sophis La plateforme, basée sur le progiciel Sophis , permet notamment : Le booking de produits complexes L’intégration des market data La présentation et le suivi des positions Le suivi des résultats Front Office Elle évolue afin d’accompagner : La croissance des émissions de produits structurés complexes Le développement des produits Delta One L’amélioration du time-to-market et de la qualité des développements En tant que référent technique , vous interviendrez sur : L’analyse et la rédaction des spécifications techniques Le développement de composants à forte valeur ajoutée La surcharge et l’extension des produits/trades dans Sophis L’intégration du pricer R&D dans la plateforme Le contrôle de booking et la gestion des scénarios Vous aurez également un rôle transverse : Revue de code et validation des intégrations Garantie de la cohérence technique des développements Participation aux choix d’architecture et aux améliorations du SI Force de proposition pour améliorer la qualité, la couverture de tests et la performance Contribution aux outils DevOps et aux processus CI/CD Environnement technique Langages & technologies : C++ toolkit Sophis PL/SQL Oracle Outils & frameworks : Git, Jenkins Sonar, Octopus Architecture microservices, webservices REST
Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour
BI SOLUTIONS
Publiée le
API Platform
AWS Cloud
2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Mission freelance
CONSULTANT OBSERVABILITE DATADOG
PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes
12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Mission freelance
Architecte GCP Gouvernance
Groupe Aptenia
Publiée le
Azure
CI/CD
Datadog
3 mois
Paris, France
Mission d’Architecte Cloud orientée GCP au sein d’un acteur majeur de la fintech. L’objectif est de renforcer et structurer une plateforme GCP encore en croissance, tout en l’interconnectant avec une plateforme Azure déjà mature. Le rôle consiste à définir la gouvernance cloud (landing zones, IAM, sécurité, policies), concevoir l’architecture multi-cloud, et accompagner les équipes sur les bonnes pratiques DevOps et platform engineering. Forte expertise GCP requise, bonne connaissance d’Azure et de Terraform appréciée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3365 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois