L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 707 résultats.
Offre d'emploi
Ingénieur/architecte cloud Ops - AWS
Publiée le
AWS Cloud
DevOps
DevSecOps
1 mois
47k-69k €
400-650 €
Île-de-France, France
Télétravail partiel
Opportunité Freelance - Architecte Cloud AWS 📍 Localisation : Paris + télétravail partiel ⏳ Durée : format pre-embauche - internalisation rapide prévue 🗓️ ASAP - Urgent Je recherche un expert Cloud pour piloter la conception et l’évolution des plateformes OVH / AWS pour l'un de mes clients (éditeur de logiciels) 🎯 Missions clés : Définir et mettre en œuvre des architectures Cloud sécurisées et scalables Gouvernance des environnements IaaS/PaaS/SaaS IaC et pratiques DevSecOps Mise en place de solutions multi-régions, conteneurs, serverless
Offre d'emploi
DevOps
Publiée le
DevOps
Docker
ELK
1 an
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Poste : DevOps Expérience : +5 ans Localisation : Paris Démarrage : asap Durée : +6 mois Nous recherchons un Ingénieur DevOps Cloud confirmé pour rejoindre notre équipe et contribuer au déploiement, à l’automatisation et à la sécurisation d’applications dans un environnement Cloud moderne. Vous interviendrez sur des projets stratégiques en lien avec des équipes pluridisciplinaires, dans une démarche agile et DevOps. Missions principales Déployer et administrer des applications Cloud (IaaS) dans un environnement distribué. Concevoir et maintenir l’infrastructure via des pratiques Infrastructure as Code (Terraform, Ansible). Mettre en place et améliorer les pipelines CI/CD (GitLab CI ou équivalent). Administrer des environnements Linux (Debian) et assurer leur durcissement (sécurité, gestion des identités et certificats, secrets management). Développer et maintenir des scripts d’automatisation (Bash, Python, ou autre). Superviser les systèmes avec des outils d’observabilité (Prometheus, Grafana, ELK/Opensearch, Loki). Gérer les architectures réseaux (routage, VLAN, pare-feu, DNS, load balancing). Déployer et orchestrer des conteneurs avec Docker et Kubernetes. Participer aux rituels agiles, contribuer à l’amélioration continue et assurer une communication fluide avec l’équipe et les parties prenantes. Compétences requises Méthodologies : DevOps & Agile. Systèmes d’information & architecture : serveurs web, files de messages, bases de données relationnelles. Infrastructure as Code : Terraform, Ansible. CI/CD : GitLab CI (ou équivalent). Linux : administration avancée (systemd, sudo, ACL, journald, gestion des processus, connexions distantes). Scripting : Bash et/ou Python. Réseaux : routage, VLAN, firewall, DNS, load balancing. Observabilité : Prometheus, Grafana, ELK/Opensearch, Loki. Sécurité : durcissement, certificats, gestion des secrets. Conteneurisation : Docker & Kubernetes. Profil recherché Expérience significative (5 ans minimum) sur un poste DevOps ou Cloud similaire. Aisance relationnelle, sens de la communication et esprit d’équipe. Capacité d’analyse, d’autonomie et force de proposition pour fiabiliser et améliorer les infrastructures.
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Scrum Master Senior (SRE / DevOps)
Publiée le
Agile Scrum
Azure Kubernetes Service (AKS)
DevOps
12 mois
500-550 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un "Scrum Master / SRE & Cloud" pour un client dans le secteur bancaire. Vous intégrerez l’équipe SRE composée d’une vingtaine d’experts spécialisés en architecture et automatisation cloud (Terraform, OpenShift, Helm, Kubernetes). L’équipe est responsable du provisionnement et de la supervision des environnements hors-production et production. Mission En tant que Scrum Master Senior , vous interviendrez sur la coordination de 30 à 35 personnes , réparties en plusieurs squads. Votre rôle sera d’assurer la bonne application des méthodologies agiles, de fluidifier le delivery et de soutenir l’amélioration continue de l’organisation. Vous travaillerez en collaboration étroite avec le management SRE, les développeurs et l’ensemble des parties prenantes. Responsabilités Animation Agile & Cadence Équipe Mise en place, animation et optimisation des cérémonies agiles (Scrum, Scrumban…). Coaching des équipes dans l’adoption des pratiques agiles adaptées au contexte SRE/Cloud. Facilitation & Coordination Faciliter les travaux quotidiens et lever les obstacles. Gestion de la coordination entre plusieurs squads (30–35 collaborateurs). Assurer la communication fluide entre équipes techniques et parties prenantes. Suivi & Pilotage Définition et mise en place d’indicateurs, dashboards et outils de suivi. Prévision des activités et planification réaliste à 2–3 mois. Contribution à l’amélioration continue des processus internes. Amélioration Continue Promouvoir les bonnes pratiques d’organisation. Accompagner la montée en compétence des équipes. Identifier les leviers d’optimisation (flux, priorisation, communication…). Profil Recherché Compétences fonctionnelles Solide expérience en tant que Scrum Master (idéalement en environnement cloud ou SRE). Capacité à coordonner plusieurs squads. Excellentes compétences en communication, écoute et gestion de conflits. Forte autonomie, sens de l’organisation, capacité à prioriser. Expérience confirmée avec des équipes de développement logiciel ou produit. Certification Scrum Master (CSM, PSM, ou équivalent) appréciée. Compétences techniques (atouts majeurs) Compréhension des environnements SRE et des principes de fiabilité. Connaissances des technologies : Terraform Helm Kubernetes OpenShift Familiarité avec les pratiques d’automatisation et d’Infrastructure as Code. Informations Pratiques Début : ASAP Lieu : Bercy Village (Paris, ligne 14) Type de mission : Freelance longue durée
Offre d'emploi
Ingénieur Cloud/DevOps H/F
Publiée le
46k-60k €
75001, Paris, Île-de-France
Ingénieur Cloud/DevOps H/F - Paris Experis recherche des Ingénieurs Cloud/DevOps (H/F) pour différents clients grands comptes en Île-de-France. Vos missions: Participer à la conception, la mise en œuvre et la gestion des infrastructures Cloud (AWS ou Azure) Automatiser le déploiement et la configuration des environnements via Ansible/Terraform Administrer et orchestrer des clusters Kubernetes (EKS, AKS…) Implémenter les CI/CD (GitLab CI, Azure DevOps, Jenkins…) Assurer la fiabilité, la sécurité et la scalabilité des plateformes Cloud Collaborer avec les équipes de développement, sécurité et réseau
Mission freelance
Ingénieur déploiement sécurité EDR Cybereason, WSUS et EDD
Publiée le
AWS Cloud
Endpoint detection and response (EDR)
F5
24 mois
500-580 €
La Défense, Île-de-France
Télétravail partiel
Ingénieur déploiement sécurité EDR Cybereason, WSUS et EDD Missions : Réaliser les dossiers techniques nécessaire dans le cadre du déploiement des sites (plans de tests…) Assurer le pilotage technique sur des aspects tels que le paramétrage et la définition de la configuration, Réaliser les opérations d’installation et de mise en service des produits dans le respect du planning et des engagements pris, Être, pendant la phase d’installation, l’interlocuteur technique d’iCSC et des intervenants sur site pour la phase RUN pour les produits concernés, Présenter en fin d’installation auprès des administrateurs et exploitants du système, les fonctionnalités et les commandes majeures nécessaires à l’exploitation de la solution du lot RUN (transfert de compétences), Participer aux Comités d’avancement et veiller à l’application des décisions qui y sont prises sur le plan technique, Procéder aux différents tests prévus lors des phases de recettes contractuelles (Phase VABF), Tenir informé le Chef de Projet de l'évolution du déploiement de la solution. les bonnes connaissances des technologies suivantes : EDR Cybereason, WSUS et EDD Environnement technique : Zscaler, Wallix, Microsoft Wsus et Print, Post Fix, Cybereason, Trellix AV, NTP, Tyrex KUB Cleaner, SIOTH, Silvershield, Syncovery, Cyber opérationnelle, F5, AWS Terraform Les futurs projet peuvent porter sur d’autres technologies Système Réseau et Cybersécurité
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Cloud Network - Ops Engineer
Publiée le
AWS Cloud
DNS
Google Cloud Platform (GCP)
1 an
350-500 €
Paris, France
Télétravail partiel
Au sein de l’équipe Réseau & Cloud, le consultant interviendra sur la conception, l’automatisation et l’exploitation de composants réseau dans des environnements hybrides et cloud. Il contribuera à la livraison de fonctionnalités techniques dans un cadre agile (Scrum), participera aux activités de Build et de Run, au maintien en condition opérationnelle et à l’automatisation des infrastructures. La mission couvre des environnements AWS et GCP (VPC, transit, segmentation, DNS, IPAM) et inclut des projets d’innovation et d’amélioration continue. Mission en présentiel à Lille, Paris ou Lyon avec 2 jours de télétravail par semaine.
Mission freelance
[LFR] Expertise réseau Azure, Senior à Paris - 1054
Publiée le
10 mois
400-590 €
Paris, France
Télétravail partiel
Localisation & Modalités: Temps plein Présentiel obligatoire à Paris (Gare de Lyon, 3 jours par semaine) Profil recherché Expertise Réseau avec une solide expérience en architecture, administration et sécurité des réseaux d’entreprise. Compétences confirmées sur Microsoft Azure, notamment sur les aspects réseau (Virtual Network, VPN Gateway, ExpressRoute, Azure Firewall, etc.). Expérience professionnelle : environ 10 ans (niveau de séniorité flexible, priorité à l’expertise technique et à l’autonomie). Capacité à travailler en environnement hybride (on-premise / cloud) et à collaborer avec des équipes pluridisciplinaires. Compétences techniques clés Protocoles réseau (TCP/IP, DNS, DHCP, BGP…) Sécurité réseau (firewalls, segmentation, monitoring) Infrastructure Azure (VNet, NSG, Azure Bastion, etc.) Outils de supervision et de diagnostic réseau Connaissance des environnements Microsoft (M365, Active Directory, etc.) Besoins auquel cet expert Azure va devoir répondre : Dans un premier temps (P0) l’accompagnement des équipes Réseau pour la construction de ce premier niveau de landing zone (nécessaire et urgente pour l’ouverture de Teams en temps et heure) ainsi que dans leur montée en compétence sur les sujets Azure pour y parvenir Puis le cadrage d’une landing-zone pérenne dont l’utilité sera plus large et servira à la partie Azure Durée estimée de la mission 6 mois, avec possibilité d’extension selon l’avancement du projet Bleu M365.
Offre d'emploi
Network Azure Architect
Publiée le
Azure
Data Center
Fortinet
6 mois
Paris, France
Télétravail partiel
Bonjour à tous, Je recherche pour un de nos clients un Architecte réseaux Azure pour travailler dans un environnement international. Contexte : Mise en œuvre à l’échelle de l’organisation des solutions Fortinet pour ses bureaux et la connectivité avec les Data Center. Profil : Expérience en Fortinet SDWAN et Fortinet Firewall (Net Sec) Expérience en sécurité sur le cloud Azure, notamment pour la conception et la mise en place de réseaux virtuels (VNets) Bon niveau d'anglais (capable d'effectuer l'entretien en anglais) Démarrage : ASAP Durée : 6 mois renouvelable Lieu : Paris Télétravail : 2 jours par semaine Pour tout intérêt, merci de m'envoyer votre cv à jour en format word. Cordialement, Nathalie Vang
Offre premium
Offre d'emploi
Ingénieur de production Windows / DevOps (Monaco)
Publiée le
Active Directory
Administration Windows
Architecture
3 ans
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Le contexte Nous recherchons un Ingénieur de production Windows / DevOps pour intégrer une équipe en charge de l’exploitation, de la fiabilité et de l’évolution des plateformes techniques. Le poste s’inscrit dans un environnement exigeant, combinant maintien en conditions opérationnelles, gestion de l’obsolescence et contribution aux projets de transformation des infrastructures. 🛠️ Les missions Exploitation et production Prise en charge du maintien en conditions opérationnelles et de sécurité des plateformes Windows Supervision, monitoring et traitement des incidents et problèmes sur le périmètre confié Gestion du cycle de vie des serveurs et plateformes Windows (installations, mises à jour, évolutions) Contribution aux actions de maintien en condition de service et d’amélioration de la stabilité des environnements Contribution aux projets techniques Participation aux phases amont des projets d’infrastructure (cadrage technique, études, RFI / RFP) Analyse des besoins d’évolution des plateformes en lien avec les équipes projets et métiers Contribution à la mise en œuvre technique des projets IT et à l’intégration des solutions dans l’existant Participation aux projets de refonte liés à l’obsolescence des environnements Windows DevOps et automatisation Mise en œuvre et amélioration de pratiques DevOps sur les environnements Windows Contribution à l’automatisation des tâches d’exploitation et de déploiement Participation à la mise en place et à l’évolution des plateformes d’automatisation et d’industrialisation Collaboration et support Travail en étroite collaboration avec les équipes projets, infrastructures, réseau et sécurité Interface technique avec les prestataires et éditeurs Support technique de niveau avancé auprès des équipes internes Contribution aux démarches d’amélioration continue et de qualité de service ✅ Les informations clés 📍 Localisation : Monaco 🗓️ Démarrage : Février 2026 🖥️ 3 jours de télétravail possible
Mission freelance
Ops ingénieur
Publiée le
DevOps
Kubernetes
12 mois
400-530 €
Paris, France
Télétravail partiel
Hanson Regan recherche un ingénieur Ops pour un contrat de 12 mois renouvelable basé à Paris (environ 3 à 5 ans ou plus) en administration système, ingénierie de production ou DevOps. Au sein d'une équipe Ops, vous serez responsable du maintien et de l'évolution des opérations et de l'exploitation d'un portefeuille d'applications au service de diverses divisions d'affaires. Technologies requises : • Ansible • Administrateur système Linux (Debian) • Scripts Bash/Python • CI/CD GitLab • Docker Compétences bonus : • OpenStack • Terraform • Kubernetes • ArgoCD • cdk8s Conformément aux exigences du client, les freelances doivent pouvoir travailler via leur propre entreprise. Nous ne pouvons malheureusement pas accepter les candidatures via des sociétés de portage salarial pour cette mission. Merci de nous contacter au plus vite si vous êtes intéressé
Offre d'emploi
Développeur front react / Next js + Azure + XP E-commerce
Publiée le
Azure
Next.js
React
3 ans
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Ta mission •Concevoir et développer des interfaces Front ambitieuses et performantes (React, Next.js, TypeScript, Web component), orientées SEO et Core Web Vitals, accessibles (RGAA/WCAG). •Porter la qualité logicielle (Software Craftsmanship) : TDD, clean code, design simple & robuste, revues de code, pair/mob programming. •Collaborer avec l’architecte & le tech lead pour faire évoluer l’architecture (SSR/SSG, caching, observabilité, monitoring). •Faire grandir le Design System en coopération avec l’équipe ad-hoc (Storybook, tokens, guidelines d’accessibilité), et accompagner son adoption dans les produits. •Améliorer en continu : CI/CD, tests automatisés, feature flags, A/B testing, observabilité et feedback loops. Livrables Front : pages produit haute performance (SSR/SSG), gestion de l’état, data fetching, routing, optimisations (images, scripts, bundles, lazy & code splitting), accessibilité et SEO by design. •Qualité : stratégie de tests multi-niveaux (unitaires, intégration, contract tests, E2E), dette maîtrisée, ADRs, sécurité (OWASP), revues structurées. •Ops & Delivery : déploiements progressifs, monitoring et SLOs, analyse d’incidents/post-mortems, culture data-driven. •Engagement : évangélisation craft, animation de rituels, capacité à challenger avec bienveillance et à faire converger les décisions.
Offre d'emploi
DevOps Confirmé / Référent Technique Supervision & Logs - Expert Checkmk & Industrialisation
Publiée le
Ansible
API REST
Bash
24 mois
Île-de-France, France
Télétravail partiel
Rejoignez l'équipe IT de notre client Leader mondial, au cœur de ses systèmes critiques, au sein d'une petite équipe de 3 personnes. Nous recherchons un(e) Ingénieur(e) Confirmé(e) doté(e) d'un grand recul et d'une âme de Lead pour assurer l'excellence opérationnelle et l'évolution des plateformes stratégiques : le Monitoring Checkmk et le Puit de Logs ElasticSearch . 🎯 Vos Responsabilités et Enjeux Clés En tant que Référent Technique, votre mission se déploiera sur trois axes : Expertise Cœur de Métier (Monitoring & Logs) : Administrer, maintenir en conditions opérationnelles (MCO) et faire évoluer les plateformes Checkmk et ElasticSearch/ELK . Développer des plugins/extensions Checkmk en Python ou Bash pour garantir une couverture de supervision exhaustive (Systèmes, Réseau, Applicatif). Assurer l'intégration de données via appels API REST pour enrichir la supervision. Mener les diagnostics avancés et le troubleshooting à partir des données de monitoring et de logs. Industrialisation & DevOps (Le Rôle de Lead) : Être le moteur de l' Infra as Code : concevoir et maintenir les Playbooks Ansible pour le déploiement des agents et des configurations (Linux/Windows). Optimiser la chaîne CI/CD via les pipelines GitLab et le Gitflow pour industrialiser les livraisons. Proposer des actions d'optimisation et garantir un haut niveau de disponibilité des services. Encadrement & Projet : Apporter votre recul et votre pédagogie pour la montée en compétence de l'équipe et des clients. Assurer le Suivi de Projet, le Reporting (PowerPoint) et la création de documentations d'administration et client. 🛠️ Votre Expertise Technique Impérative Supervision : Maîtrise d'un outil de monitoring majeur (idéalement Checkmk ou Nagios/Zabbix) et capacité à développer des checks. Industrialisation / IaC : Maîtrise indispensable d' Ansible et des outils Git/GitLab CI/CD . Systèmes : Expertise forte en environnement Linux (RedHat, Debian, etc. – le principal) et bonnes connaissances Windows Server . Scripting : Compétences confirmées en Bash et Python (ou PowerShell). Logs : Connaissances en ElasticSearch/ELK (maintenance et analyse de logs). Réseau & API : Connaissances des protocoles de supervision ( SNMP, TCP/IP, Load Balancer ) et expérience des appels API REST .
Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer
Publiée le
Apache Kafka
AWS Cloud
Azure
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
3707 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois