L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 373 résultats.
Offre d'emploi
Expert en solutions d’archivage et de conformité (H/F)
Publiée le
Dynatrace
Grafana
SMTP (Simple Mail Transfer Protocol)
3 ans
49k-65k €
450-570 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement d’une équipe Record Management au sein d’un pôle Digital Working (Département Infrastructures), nous recherchons un expert confirmé en solutions d’archivage et de conformité , intervenant sur un périmètre mondial. Missions Exploitation, maintenance et évolution des solutions d’archivage et de conformité Support de niveau expert et résolution d’incidents complexes Participation aux projets de migration de données d’archivage Contribution aux activités d’archivage légal, d’eDiscovery et de conformité réglementaire Compétences techniques requises Expertise sur Veritas Enterprise Vault (v12 & v14) et ses composants : Compliance Accelerator Discovery Accelerator eDiscovery Platform (eDP) Expérience sur Veritas Merge1 et Verba (implémentation, évolution, support) Maîtrise des environnements de messagerie interfacés avec les solutions d’archivage : Microsoft Exchange 2016 / Office 365 Microsoft Teams, Symphony Messageries de trading : Bloomberg, Refinitiv Messenger, ICE Chat Expérience des migrations d’archives, notamment via TransVault Bonne compréhension des enjeux d’archivage légal, d’eDiscovery et de conformité Connaissance des protocoles de messagerie ( SMTP ) Maîtrise d’outils de monitoring et d’observabilité : Grafana, Dynatrace Profil Expérience confirmée sur des environnements d’archivage et de conformité Capacité à intervenir dans un contexte international Anglais professionnel requis
Offre d'emploi
Devops (H/F)
Publiée le
DevOps
Dynatrace
Grafana
1 an
40k-45k €
330-400 €
Paris, France
Télétravail partiel
Contexte: Nous recherchons un Ingénieur DevOps expérimenté (H/F) pour un de nos clients grands comptes en région parisienne. Le/ la consultant (e) rejoindra une équipe dynamique et contribuera à la mise en place et à l’optimisation de nos environnements Build & Run . Vous serez au cœur de la transformation digitale, garantissant la fiabilité, la performance et la sécurité de nos systèmes. Vous serez intégré dans une équipe en mode agile et vous travaillerez sur plusieurs projets à grande envergure.
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Offre d'emploi
Architecte / Développeur Full Stack
Publiée le
Elasticsearch
Java
WebSphere
1 an
40k-45k €
100-400 €
Paris, France
Télétravail partiel
Contexte Un outil de centralisation et de récupération automatique des cours de marchés visant à permettre la valorisation des fonds OPCVM. Cette application s'inscrit comme application centrale connectée à plusieurs fournisseurs de données pour les contrôler et les diffuser aux différentes plateformes comptables. Descriptif du poste Dans le cadre de l'évolution de la plateforme pour les besoins spécifiques ou l'intégration de nouveaux clients, la mission consiste à la maintenance évolutive de la plateforme et à l'onboarding de nos nouveaux clients dans notre Target Operating Model, incluant le contrôle de cours de produits listés, la gestion des OST, les process OTC ou la couche d'acquisition MUSE. La mission consiste à : Compréhension et analyse des besoins du Métier liés à un ou plusieurs domaines fonctionnels, dans le but de faire évoluer le SI avec des solutions adéquates et durables en cohérence avec le plan stratégique de l'entité et le portefeuille de demande associé Contribution aux études en lien avec le Métier Clarification, analyse d'un point de vue critique et constructif et le cas échéant challenger le besoin formulé du Métier au regard du plan stratégique de l'entité et des évolutions techniques de la plateforme Développements et tests des composants applicatifs sous sa responsabilité Respect des normes/standards de développements et sécurité Estimation et respect des deadlines de livraison des développements Participation à l'optimisation de la qualité du code et de sa maintenabilité Exécution et suivi des tests unitaires du code sous sa responsabilité Contribution aux autres activités de testing et participation aux corrections des problèmes rencontrés lors des campagnes de tests Apporter des suggestions dans le cadre de l'amélioration continue de l'équipe et de son activité Assurer l'adéquation de la solution avec les exigences découlant du besoin du Métier et de la production Participation et proposition des solutions techniques en adéquation avec les règles d'implémentation et de sécurité aux besoins du Métier Rédaction des documents de spécifications/solutions liés aux évolutions demandées par le Métier Participation au transfert de connaissances aux équipes de production préalablement aux livraisons applicatives Participation à la modélisation et à l'établissement des solutions des projets stratégiques Interaction et autonomie avec les équipes business et support Support aux équipes de production Contribution de manière significative à l'effort de pérennisation de la plateforme et à la diminution des incidents Participation aux activités de support niveau 3 et d'astreintes Participation à la formation et à l'accompagnement des membres de l'équipe de Paris et offshore
Offre d'emploi
Ingénieur Observabilité
Publiée le
AWS Cloud
Azure
Bash
12 mois
40k-48k €
400-480 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre d’une transformation numérique ambitieuse, une grande organisation du secteur postal et numérique renforce ses capacités d’ingénierie SI pour accompagner la modernisation de son système d’information. La direction des systèmes d’information a lancé une initiative visant à améliorer la qualité de service, la résilience et la performance opérationnelle de ses applications critiques à travers une approche centrée sur l’observabilité. Au sein de la direction en charge des infrastructures, de l’exploitation et des opérations SI, une équipe dédiée à la supervision et à la production pilote la gestion des incidents, la performance des services et la continuité d’activité. Cette mission s’inscrit dans un contexte de convergence des outils et des plateformes d’observabilité, avec pour objectif de consolider les données de monitoring, de logging et de tracing issues de plusieurs sources, afin d’assurer une visibilité complète et proactive sur l’ensemble du SI. L’ingénieur observabilité intervenant sur cette mission contribuera à la conception, au déploiement et à l’amélioration continue des solutions d’observabilité, en s’appuyant sur un écosystème technologique riche et diversifié (Dynatrace, Prometheus, Grafana, ELK, OpenTelemetry, etc.), dans des environnements hybrides cloud et on-premise. L’objectif est de renforcer l’autonomie des équipes DevOps, SRE et d’exploitation grâce à des dashboards intelligents, des alertes contextualisées et des processus automatisés.
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales : 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Devops Expert(e) supervision
Publiée le
Dynatrace
Grafana
Zabbix
12 mois
Île-de-France, France
Télétravail partiel
Cherche un profil expert sur Dynatrace, Zabbix et Grafana pour une mission longue en Ile de France Profil recherché : - DEVOPS ayant de l'expérience en supervision (infra, application, ...) et maîtrisant les outils Dynatrace, Zabbix et Grafana. - Capacité à apprendre en autonomie et à aller chercher l'information auprès de l'équipe ou en dehors. - Capacité à accompagner nos clients internes et à identifier ce qui a de la valeur pour eux. Vous serez amené à intervenir sur l'Analyse, la conception, le développement, recette unitaire et tests d'intégration.
Offre d'emploi
Administrateur base de données
Publiée le
Elasticsearch
Google Cloud Platform (GCP)
Greenplum
1 an
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Offre d'emploi
Intégrateur de Solutions Informatiques (H/F)
Publiée le
Ansible
Dynatrace
Grafana
12 mois
35k-40k €
270-320 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼 Poste : Intégrateur de Solutions Informatiques 📍Lieu : Niort 🏠 Télétravail : 2 jours/semaine 👉 Contexte client : Rejoins un acteur majeur de l’assurance mutualiste , reconnu pour ses valeurs de solidarité et son engagement sociétal. Cette société accompagne plus de 3,5 millions de sociétaires en proposant des solutions d’assurance, de services financiers et d’assistance. Au sein de la Tribu Canaux et Flux , tu contribues à la fiabilité des solutions éditiques et à l’évolution des infrastructures critiques. En tant que Intégrateur de Solutions Informatiques , tu garantis la disponibilité, la performance et la sécurité des systèmes Linux et Windows, tout en participant à des projets stratégiques et à l’amélioration continue. Tu auras pour missions de : Exploiter et administrer les systèmes Linux et Windows. Mettre en place et optimiser l’observabilité (Dynatrace, Grafana, Prometheus, Kibana). Automatiser et industrialiser les déploiements (Ansible, scripts Shell). Participer aux mises en production dans le respect des normes MAIF. Assurer le support, résoudre les incidents et contribuer au maintien en condition opérationnelle. Mettre à jour la documentation technique et les dossiers d’architecture. Conseiller sur la performance, la robustesse et la sécurité des solutions. Stack technique : Linux, Windows, Ansible, Shell scripting, Dynatrace, Grafana, Prometheus, Kibana, CI/CD (GitHub, Jenkins), bonnes pratiques DevOps, observabilité, éditique (AFP).
Mission freelance
Tech Lead Fullstack Java/Angular
Publiée le
Elasticsearch
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : Fullstack , Applications Web, Versionning, Gestion de configuration, Devops, tests unitaires Compétences Technologies et Outils PostgreSQL Ansible ElasticSearch JestJava Docker Kubernetes Gitlab Keycloak Apache SpringBoot Angular Azure Nginx Terraform Méthodes / Normes Adapter RGAA Nous recherchons un profil tech lead pour reprendre en charge certaines activités build et run d'un projet stratégique. Il sera amené à piloter l'activité de l'équipe technique du projet (~6 personnes) et à participer aux instances du projet (interne et avec le client) et en lien avec son homologue fonctionnel et le Chef de projet. MISSIONS - Pilotage et suivi - Assurer la cohérence technique de l'application run et build - Co-construction du plan de charge du projet avec le chef de projet et le référent fonctionnel avec la responsabilité sur le périmètre technique (planification et répartition des activités des développeurs du périmètre) - Suivre l'activité de l'équipe et valider la bonne adéquation de la production avec le plan de charge théorique. Adapter le plan de charge si un écart survient en collaboration avec le chef de projet et le référent fonctionnel - Garantir toutes les productions techniques (codes, tests unitaires, documentation, livrables techniques, conceptions techniques, etc.), en qualité et délais, dans le respect des normes et standards. - Suivre et réaliser les revues de code avec feedback constructif aux équipes - Evaluer les charges techniques et rédiger les devis Expertise technique - Développer les fonctionnalités complexes et/ou critiques de l’application (back et front) - Effectuer le support technique aux développeurs - Maitriser les problématiques de performance, de sécurité et d’accessibilité - Maintenir et faire évoluer les chaines de construction et déploiement, ainsi que les environnements internes Expertise souhaitée Compétences attendues : - Exigées: Java 17, Spring 6, Spring Boot 3, JUnit 5, Angular 17, NgRx, Jest, GitLab, PostgreSQL, Conception technique, Chiffrage, Pilotage d’équipe technique, Revue de code - Souhaitables : Elasticsearch, Tomcat, Apache, nginx, Keycloak, RGAA, DSFR - Appréciées : Ansible, Terraform, Docker, Kubernetes, Azure Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises
Mission freelance
Expert moteur de recherche (Sinequa, Elastic Search)
Publiée le
Elasticsearch
1 an
Île-de-France, France
Télétravail partiel
Rejoignez le pôle Data, IA et Développement d’un grand groupe français et contribuez à la transformation numérique du Groupe à travers ses solutions de Moteur de Recherche d’entreprise (Sinequa, ElasticSearch). Votre mission : concevoir, développer et améliorer les applications de recherche transverses du Groupe, intégrant de multiples sources de données (GED, intranet, R&D, etc.) pour renforcer la diffusion et la valorisation de la connaissance. Vous participerez aux ateliers de conception, réaliserez des études techniques et POC, et interviendrez sur la mise en place des connecteurs, l’indexation, la pertinence et la sécurité des données. Au sein d’une équipe dynamique de 13 personnes, vous évoluerez dans un environnement Agile / DevSecOps. Vous collaborerez avec des architectes, product owners et experts sécurité et vous contribuerez à des projets à fort enjeu pour les métiers du Groupe. Un poste stimulant, à l’intersection de la data, de la technologie et du knowledge management, pour faire progresser la recherche d’information à l’échelle d’un grand groupe.
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre d'emploi
Ingénieur OPS
Publiée le
Dynatrace
Linux
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab...)) Facilité de déploiement des solutions Mettre à disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture technique Participation aux réunions de définition de l'architecture (SATS/CASA) Contrôl de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Monitoring et supervision Définition et mettre en place/faire évoluer le Monitoring Mettre en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Documentation et pilotage Mettre en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Rôle consultatif De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / Kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes) / Oracle / MongoDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, AIX Langages : YAML, Python, Shell Toolchain et automatisation : GitLab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, GitLab-CI, XL Release La certification éditeur peut être un critère différenciant. Connaissances en architecture cloud Modèles de services Cloud : IaaS, PaaS, SaaS Grandes familles de cloud (privé, public, hybride) Concepts liés aux conteneurs (micro-services) Concepts liés aux machines virtuelles (para-virtualisation, émulation) Enjeux de l'Infrastructure as Code Concepts du Cloud Computing Environnement DevOps et Agile
Offre d'emploi
Expert observabilité – Assurance (H /F)
Publiée le
50k-62k €
Castelnau-le-Lez, Occitanie
Vous êtes à la recherche d'une mission stimulante, où votre travail a du sens et où vos idées comptent ? Bonne nouvelle : vous venez de trouver la bonne annonce ! Cabinet de conseil en SI, SEA TPI est à la recherche d'un expert en observabilité pour accompagner la transformation digitale d'un acteur majeur du secteur de l'assurance. Dans le cadre de la modernisation de son système d'information, un acteur majeur du secteur de l'assurance mène des projets de transformation digitale à forts enjeux de disponibilité, performance et qualité de service, dans un environnement réglementé. La mission s'inscrit au sein d'équipes Dev, Ops et SRE, avec pour objectif de structurer et renforcer la stratégie d'observabilité du SI afin d'anticiper les incidents et d'améliorer la fiabilité des applications métiers. Responsabilités principales : - Définir et déployer une stratégie d'observabilité de bout en bout - Mettre en œuvre des cas d'usage observabilité pour les équipes Dev et Ops - Instrumenter les applications via OpenTelemetry (metrics, logs, traces) - Exploiter les outils Dynatrace et Grafana - Définir et suivre les SLI / SLO en lien avec les exigences métiers - Mettre en place des indicateurs orientés expérience utilisateur - Concevoir des dashboards clairs et actionnables - Intégrer des quality gates dans les pipelines CI/CD - Contribuer à l' anticipation des incidents et à la détection d'anomalies - Mettre en œuvre des mécanismes d' automatisation et de remédiation - Accompagner les équipes dans l'adoption des bonnes pratiques d'observabilité Le tout dans un environnement collaboratif, stimulant et riche en échanges ! Mission basée aux portes de Montpellier. Télétravail partiel possible. Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : u3zxkao3hn
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Création de site Wordpress : BIC ou BNC ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Transfert d'activité - cession du fond de commerce
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- SASU à l'IR & ARE
1373 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois