L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 465 résultats.
Offre d'emploi
Ingénieur DevOps (/Intégrateur) AWS & Kubernetes
CELAD
Publiée le
38k-52k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur DevOps / Intégrateur Cloud (AWS, Kubernetes, scripting) pour l’un de nos clients situé à La Ciotat. Au sein de l’équipe Cloud, vos missions seront les suivantes : - Concevoir, développer et maintenir une infrastructure hybride exigeante (AWS, GCP, Datacenters privés) à haute disponibilité et évolutivité - Développer et maintenir le déploiement continu en automatisant également le déploiement du code vers les environnements de test, de préproduction et de production - Mettre en place des pratiques et des outils pour permettre une intégration continue du code source dans le référentiel principal, facilitant des déploiements plus fréquents et plus fiables - Mettre en œuvre une surveillance, sauvegarde, restauration et mise à l'échelle rapide et sécurisée - Intégrer les solutions applicatives dans l’écosystème existant - Rédiger de la documentation technique (spécification, conception, description de l'API, guide de l'utilisateur, etc.) - Développer, maintenir et automatiser toutes les opérations : alerte, information client, monitoring, etc. - Fournir une visibilité à la direction et au responsable de l'architecture sur l'avancement des missions - Contribuer au partage des connaissances Vous n’êtes pas uniquement “build”, vous êtes aussi facilitateur, capable d’expliquer, coordonner et faire avancer les sujets.
Offre d'emploi
Ingénieur DevOps Cloud Confirmé H/F
DCS EASYWARE
Publiée le
45k-50k €
Chambéry, Auvergne-Rhône-Alpes
Dans le respect des normes et méthodes de l'entreprise, vous garantissez en toute autonomie la mise en oeuvre, l'évolution et la gouvernance des environnements Cloud public (AWS & Azure), ainsi que leur intégration avec les infrastructures on-premise. Vous assurez la conformité, la sécurité et l'optimisation des coûts, tout en participant activement à la définition et à l'application des standards de gouvernance. Gouvernance Cloud public - Définir, mettre à jour et appliquer les standards de gouvernance des Landing Zones AWS et Azure (RBAC, policies, tagging, compliance). - Administrer les mécanismes de contrôle (Azure Policy, AWS Config, Service Control Policies). - Garantir la conformité avec les standards de sécurité et les référentiels réglementaires (ISO, RGPD, SOC 2). Intégration avec les environnements on-premise - Comprendre les contraintes et spécificités des environnements datacenter (réseau, sécurité, conteneurs, virtualisation). - Aligner les politiques Cloud avec les standards existants on-premise. - Contribuer à la gestion des environnements hybrides (Cloud + datacenter), incluant des workloads conteneurisés (OpenShift, Kubernetes). - Participer aux projets de migration et à la mise en place d'architectures hybrides. Automatisation & Infrastructure as Code - Maintenir et faire évoluer les configurations IaC (Terraform) pour créer et administrer les Landing Zones. - Automatiser les contrôles de conformité et les déploiements liés à la gouvernance. FinOps & optimisation des coûts - Participer aux initiatives FinOps : suivi budgétaire, optimisation des consommations, mise en place d'alertes et reporting. - Contribuer à la rationalisation des services Cloud. Collaboration & transversalité - Collaborer étroitement avec les équipes Sécurité, Réseau et les équipes applicatives. - Être force de proposition pour améliorer les standards de gouvernance et la maîtrise des coûts. Documentation & qualité - Produire et maintenir la documentation technique et les standards de gouvernance. - Garantir une documentation fiable, complète et exploitable. Et si on parlait de vous ? Expérience et connaissances - Expérience confirmée (5 ans minimum) sur des environnements Cloud publics (AWS / Azure) et des infrastructures on-premise. - Bonne connaissance des architectures Landing Zone et des frameworks de gouvernance Cloud. - Anglais professionnel, à l'écrit comme à l'oral. Compétences techniques essentielles - Cloud : maîtrise d'AWS & Azure (IAM/RBAC, policies, tagging, cost management). - IaC : très bonne connaissance de Terraform (modules, gestion du state). - FinOps : compréhension des approches d'optimisation des coûts et des outils associés. - On-premise : compétences datacenter (Linux/Windows), conteneurs (OpenShift / Kubernetes), virtualisation (VMware). - DevOps : automatisation, CI/CD, Git. - Sécurité : compréhension des frameworks (CIS Benchmarks, ISO 27001). Soft skills - Autonomie, rigueur et esprit analytique. - Capacité à travailler en transversalité avec des équipes variées. - Force de proposition et orientation amélioration continue. Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,60EUR, prime ancienneté, prime de vacances, CE, participation, prime d'ancienneté, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). - Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! -
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
DevSecOps
HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité
3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.
Mission freelance
Développeur Full Stack Python / Angular – IA Générative
CAT-AMANIA
Publiée le
Angular
FastAPI
Git
2 ans
400-450 €
Île-de-France, France
Dans un contexte de forte proximité avec les métiers et d’ innovation rapide , vous rejoignez une équipe de développement transverse dédiée à la création de solutions digitales à forte valeur ajoutée. Cette équipe intervient en mode agile , avec une approche pragmatique et orientée résultats, pour concevoir rapidement des outils métiers, expérimenter de nouveaux usages autour de l’IA générative et accompagner leur industrialisation au sein du système d’information. Vous évoluez au sein d’une équipe pluridisciplinaire composée de développeurs full stack, data engineers, data scientists, tech leads et chef de projet, reconnue pour sa dynamique collective , son esprit d’entraide et sa culture de l’innovation. Vos missions En tant que développeur full stack, vous interviendrez sur un périmètre large et varié : Concevoir et développer des applications web de bout en bout , du besoin métier jusqu’à la mise en production Développer des interfaces web modernes et performantes en Angular, exploitant des traitements de données complexes Concevoir et implémenter des APIs robustes et performantes avec FastAPI Participer à la réalisation de POC et d’applications intégrant de l’IA générative Contribuer à la maintenance évolutive et au run des applications existantes Garantir la qualité du code via des tests unitaires et fonctionnels et le respect des bonnes pratiques Collaborer étroitement avec les équipes produit, design et les utilisateurs métiers Participer à la documentation et à l’amélioration continue des pratiques de développement Être force de proposition dans les réflexions techniques et les choix de solutions innovantes
Offre d'emploi
DevOps SRE Cloud AWS H/F - Paris
Webnet
Publiée le
Ansible
CI/CD
Cloud
73k-80k €
Paris, France
Dans le cadre d'une intégration définitive chez l'un de nos clients, nous sommes à la recherche d'un DevOps Cloud. Vous intégrez l'équipe R&D Cloud, et serez capable de structurer et cadrer l’ensemble des activités CI/CD et observabilité. Le poste combine expertise technique, vision d’architecture et responsabilité opérationnelle. Vous êtes responsable de la fiabilité, de l’automatisation et du maintien en condition opérationnelle des plateformes Cloud. Vous intervenez sur trois axes majeurs : Structuration et fiabilisation des pipelines CI/CD Mise en place et pilotage de la stratégie d’observabilité Support technique avancé et accompagnement des équipes Vous aurez pour missions : CI/CD & Automatisation Mise en place et optimisation des pipelines CI/CD Configuration et maintien des outils TeamCity et Bitbucket Pipelines Création et maintenance des scripts et jobs de déploiement en production Développement et maintenance des scripts Terraform et Ansible Instanciation des composants nécessaires au déploiement des produits Automatisation et fiabilisation des mises en production Observabilité & MCO Définir et cadrer la stratégie d’observabilité Choisir et implémenter la stack (OpenTelemetry, Datadog, Prometheus…) Mettre en place le monitoring, l’alerting et les dashboards Définir les indicateurs de maintien en condition opérationnelle Optimiser les performances, la scalabilité et les coûts Support & Collaboration Support de niveau 3 Accompagnement de l’équipe Digital Services dans le traitement des demandes clients Gestion des accès, certificats et sujets liés à la sécurité Contribution à la stratégie Cloud et aux bonnes pratiques
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Mission freelance
Ingénieur système & Cloud GCP (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration système
DevOps
Google Cloud Platform (GCP)
12 mois
550-590 €
Île-de-France, France
Contexte Dans le cadre du renforcement de sa Direction Digital, notre client recherche un profil système et cloud orienté DevOps pour intervenir sur sa plateforme digitale. Vous évoluerez dans un environnement avec de forts enjeux d’automatisation, de fiabilité et de sécurité des environnements cloud. Vos missions Déploiement des composants et services via des outils d’Infrastructure as Code (Terraform, Ansible) Mise en place et optimisation des pipelines CI/CD (GitLab CI) du développement à la production Contribution active au support opérationnel (RUN) et gestion des incidents en production Implémentation du monitoring et des alertes Rédaction et mise à jour de la documentation technique Gestion des enjeux sécurité et FinOps (optimisation des coûts cloud) Sécurisation des processus de développement et de déploiement Environnement technique Google Cloud Platform (GCP) Linux/Unix (Background système apprécié° Terraform, Ansible GitLab CI Monitoring & observabilité (Dynatrace apprécié)
Offre d'emploi
MLOps Engineer
VISIAN
Publiée le
AWS Cloud
OVHcloud
PostGIS
1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe détecteur travaille sur des algorithmes de détection d'objets sur des images satellites. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe AI IMINT elle-même. La personne travaillera en binôme avec un MLEng de l'équipe.
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Mission freelance
Cloud Engineer Lead Expert
Codezys
Publiée le
Ansible
Conception
ISO 27001
12 mois
Paris, France
Le service comprendra : A. Gestion de l'Infrastructure de Stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées aux besoins. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances du stockage par des ajustements et un équilibrage de la charge. Fourniture d'un service 24/7 avec une organisation dédiée aux heures creuses pour une disponibilité continue. Élaboration et partage de documentation technique, comprenant des Dossier de Conception Technique (LLD), des procédures et des processus. B. Protection des Données & Sauvegarde Mise en œuvre de stratégies de sauvegarde et de récupération d'urgence afin de prévenir toute perte de données. Utilisation et gestion des solutions de sauvegarde adaptées aux besoins spécifiques. Développement de stratégies de réplication inter-sites pour garantir la continuité des activités. C. Sécurité et Conformité du Stockage Application de mécanismes de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance de la conformité aux normes GDPR, HIPAA, ISO 27001 et autres réglementations applicables. Supervision et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la résolution des non-conformités identifiées lors des audits. D. Planification de la Capacité & Optimisation Analyse de l'utilisation du stockage et anticipation des besoins futurs. Amélioration de l'efficacité grâce à des fonctionnalités telles que la déduplication, la compression, et la gestion à approvisionnement fin (thin provisioning). Mise en place d'automatisations de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Résolution de Problèmes & Optimisation des Performances Identification et résolution des problèmes de latence, de limitations en IOPS ou de défaillances de disques. Réalisations de mises à jour du firmware, de correctifs et de vérifications de l'état général des systèmes. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données end-to-end. Gestion des incidents, y compris leur résolution et leur coordination avec les interfaces concernées.
Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark
3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Offre d'emploi
2. Expert Sauvegardes / VEEAM Senior
ON-X
Publiée le
Ansible
API
Plan de reprise d'activité (PRA)
45k-65k €
Lyon, Auvergne-Rhône-Alpes
Contexte : Mission auprès de la Direction DIGIT de notre client grand compte pour renforcer l’expertise autour des solutions de sauvegarde VEEAM dans des environnements datacenters et sites de production nucléaire. L’expert sera responsable de la conception, du déploiement, des migrations, de la supervision et de la maintenance prédictive de la plateforme sauvegarde, dans un cadre exigeant avec des livrables de niveau États-majors. Environnement technique / compétences clés : Veeam Backup & Replication, Veeam One Architecture et qualification d’infrastructures de sauvegarde PRA / résilience, tests, plans de montée de version Automatisation (Ansible, Python, API) Rédaction de documents techniques complets et structurés
Mission freelance
Ingénieur DevOps Senior Plateforme Cloud H/F
TechOps SAS
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
10 mois
550-650 €
Paris, France
Dans le cadre du renforcement de sa plateforme cloud, notre client recherche un Ingénieur DevOps / Platform Cloud senior pour concevoir, structurer et faire évoluer un environnement AWS robuste et hautement sécurisé. Vous interviendrez sur la création de modules Terraform industrialisés et maintenables, la structuration d’une architecture multi-comptes ainsi que la définition de standards de déploiement pour des environnements conteneurisés, serverless et traditionnels. Vous contribuerez à l’automatisation complète des pipelines CI/CD avec contrôles qualité et sécurité, au monitoring avancé, à la gestion de la résilience et à l’accompagnement des équipes dans la migration et l’adoption des bonnes pratiques cloud.
Offre d'emploi
DevOps Automation
KLETA
Publiée le
Ansible
Terraform
3 ans
Paris, France
Missions principales AUTOMATISATION / INDUSTRIALISATION (BUILD) Concevoir et développer des automatisations d’infrastructure avec Ansible . Déployer et gérer les infrastructures via Terraform (On-Prem) (vSphere, OpenStack, Nutanix, etc.). Industrialiser les processus de provisioning (VM, réseaux, stockage, OS, middleware). Mettre en place des standards d’automatisation réutilisables (modules, rôles, templates). INFRASTRUCTURE AS CODE (IaC) Définir et maintenir des référentiels IaC clairs et versionnés (Git). Standardiser les patterns d’infrastructure (blueprints, templates). Assurer la traçabilité et la reproductibilité des déploiements. Travailler en collaboration avec les équipes infra et plateformes. RUN / FIABILITÉ OPÉRATIONNELLE Assurer le maintien en condition opérationnelle des automatisations. Diagnostiquer et corriger les incidents liés aux déploiements automatisés. Proposer des améliorations continues des processus et outils. Réduire le temps de déploiement et les erreurs humaines. CI/CD Mettre en place des pipelines CI/CD pour l’automatisation (GitLab CI, Jenkins ou équivalent). Automatiser les tests d’infrastructure et de configuration. Intégrer les automatisations dans les processus ITSM (si nécessaire). OBSERVABILITÉ / QUALITÉ Documenter les automatisations et processus. Mettre en place des contrôles et validations avant mise en production. Collaborer avec les équipes exploitation pour améliorer la visibilité et le monitoring. COLLABORATION / AGILITÉ Travailler avec les équipes Infra, Systèmes, Réseau et Sécurité. Participer aux rituels Agile (si applicable). Partager les bonnes pratiques et former les équipes.
Mission freelance
expert Linux intégration
QUALIS ESN
Publiée le
Bash
Linux
Python
6 mois
400-550 €
Paris, France
Dans le cadre de l’automatisation de la procuration de certificats numériques mon client recherche un expert confirmé dans les métiers de l’intégration et de l’architecture des SI, opérationnel rapidement. Profil recherché - Expert confirmé en intégration en environnements Linux - Maîtrise des problématiques de certificats numériques et de leur automatisation - Bonne connaissance des environnements DNS, LDAP et LDAPS, SSH - Connaissance du protocoles ACME V2, et éventuellement des protocoles SCEP et EST - Bonne maîtrise de l’automatisation via scripting (Bash, python, etc.) - Très bonne maîtrise des problématiques des environnements sécurisés (DNS, Firewalls, Wafs, clefs asymétriques, LDAPS) - Maitrise des contextes API modernes (JWT, GraphQL, …) - Solide expertise en sécurité des SI (Connaissance des normes de sécurité ISO 27001, ANSSI, sécurisation des sys-tèmes Linux)) - Autonome, rigoureux, capable de documenter et de transmettre les bonnes pratiques. Objectifs de la mission - Intégration/évolution d’un outil d’automatisation de la procuration des certificats - Intégration de la supervision et de la gestion des logs - Implémentation d'une infrastructure de procuration en haute disponibilité - MOE Évolutions puis passage en production - Accompagnement des équipes techniques à l’utilisation et à l’administration de la solution - Analyse des besoins de sécurité, rédaction des plans d’implémentation, et recommandations adaptées - Accompagnement des démarches d’homologation - Réalisation d’audits de sécurité, de conformité réglementaire et de remédiations - Automatisation des tâches via scripting sur des API (REST, …) - Gestion des incidents et réponse aux incidents. Livrables attendus - Documentation complète de l’architecture implémentée - Scripts Bash, Python, . mis en oeuvre dans le cadre de la gestion automatisée avec leur documentation - Procédures d’exploitation et d’administration des plateformes de procuration - Formation des administrateurs, exploitants et supports associés - Plan de MCO/MCS documenté avec préconisations et axes d’amélioration Environnement technique - Systèmes : Linux (Debian, Ubuntu, RHEL), Windows Server, Active Directory - Virtualisation : VMWare vCenter, ESXi (version 8) - Supervision : Zabbix (serveur, proxy, agents) - Logs & observabilité : ELK (OpenSearch, Logstash, Kibana)-Syslog - Sécurité : Normes ANSSI - LPM - Divers : Git, dépôt APT local, scripting Bash/Python BESOIN DE REALISATION EN HORAIRE NON OUVRE OBSERVATIONS COMPLEMENTAIRES - L Lie -
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1465 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois