Trouvez votre prochaine offre d’emploi ou de mission freelance Data governance

Votre recherche renvoie 76 résultats.
Freelance

Mission freelance
Data Analytics Stream Leader SAP (F/H)

STHREE SAS pour HUXLEY
Publiée le

12 mois
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre du cadrage du chantier Data Analytics d'un programme SAP (ECC / S/4HANA), vous interviendrez en étroite collaboration avec le Chef de Projet métier en tant que Data Analytics Stream Leader . La langue du projet est l'anglais . Missions 1) Cadrage & Gouvernance Piloter l'animation des ateliers métier (organisation, facilitation, comptes rendus, restitution). Finaliser la liste des codes transactions spécifiques liés au reporting et des requêtes développées par les utilisateurs. Préparer et participer au Comité Projet hebdomadaire pour présenter l'avancement du stream Data Analytics. Proposer et maintenir un planning détaillé du stream (jalons, dépendances, risques, plans d'actions). 2) Remédiations / Rebuild SAP En collaboration avec l' équipe IS et les Domain Leaders métier : Prioriser les remédiations/rebuild des transactions et des requêtes. Mettre en place les indicateurs de suivi d'avancement (Design, Build, Tests). Définir la stratégie de tests et rédiger les scénarios de test (critères d'acceptation, jeux de données, traçabilité). 3) Transferts vers la Data Platform En collaboration avec la Data Governance , la Digital Factory et les équipes métier : Piloter la phase de réalisation (organisation, animation, restitution). Assurer la cohérence des flux, la qualité et la modélisation des données transférées. 4) Reporting & Accompagnement Supporter les équipes métier dans la reconstruction des rapports Power BI (datasets, modèles, DAX légère, gouvernance des espaces). Assurer la montée en maturité des pratiques (bonnes pratiques de modélisation, performance, sécurité). Livrables attendus Cartographie finalisée des transactions & requêtes impactées. Planning détaillé du stream et reporting d'avancement (KPI/indicateurs). Stratégie de test + scénarios et résultats de tests. Plan de remédiation/rebuild priorisé. Comptes rendus d'ateliers et restitutions au Comité Projet. Rapports Power BI reconstruits et validés par le métier. Profil recherché Compétences techniques Data : connaissance du traitement de la donnée et de son utilisation , de la collecte à la modélisation . SAP : maîtrise de SAP ECC ou S/4HANA . Outils : Pack Office (Excel/PowerPoint/Visio), Power BI ; SQL apprécié. Tests & qualité : conception de stratégies de test, scénarios, critères d'acceptation, suivi des défauts. Connaissances métier Finance , Supply Chain , Opérations (processus, indicateurs, particularités de reporting). Méthodologie & Soft skills Pilotage de workshops , priorisation et planification . Capacité d'analyse de l'existant et définition de stratégie data . Excellentes capacités de communication et de restitution (français/anglais). Leadership transversal, sens de la structure et de la rigueur . Langues Anglais courant (écrit et oral) - langue de travail du projet. Serait un plus Expérience sur projets de conversion / montée de version / déploiement SAP (ECC → S/4HANA, rollouts). Maîtrise avancée de SQL et/ou optimisation de modèles Power BI.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI

Offre d'emploi
Data Analyst Industriel F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le

Colombes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Architecte d'entreprise H/F

FED SAS
Publiée le

65k-75k €
France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Paris 1er un Architecte d'entreprise H/F dans le cadre d'un CDI. Rattaché au DSI, l'Architecte d'entreprise H/F doit définir, maintenir et gouverner la trajectoire d'architecture (métier, data, applicative, intégration, technique/cloud, sécurité) afin d'assurer un SI cohérent, résilient, auditable et conforme, notamment au regard des attentes ACPR/BCE/EBA et du règlement DORA, avec un focus sur l'inventaire, la cartographie, et les dépendances des actifs TIC supportant les fonctions critiques/importantes. Missions principales A. Stratégie d'architecture d'entreprise * Définir et maintenir la cible d'architecture (Target Architecture) et la trajectoire (roadmap) en alignement avec la stratégie de la banque. * Construire/maintenir la Business Architecture : modèle de capacités, cartographie processus/fonctions, analyses de maturité. * Réaliser les analyses d'impact pour cadrer les évolutions et arbitrages. B. Gouvernance, standards et revues d'architecture * Mettre en place et animer la gouvernance d'architecture : principes, standards, patterns (API, intégration, data, IAM, cloud, etc.). * Conduire les revues d'architecture des projets majeurs pour assurer la conformité aux standards et à la stratégie, ainsi que la gestion des risques (sécurité, résilience, conformité réglementaire). C. Référentiels, cartographies et exigences DORA * Maintenir un dispositif « audit-ready » d'inventaires et cartographies du SI (applications, données, flux, dépendances, actifs critiques). * Assurer l'alignement avec les exigences réglementaires, notamment DORA Art. 8, en matière de résilience et de continuité. D. Rationalisation et modernisation du portefeuille * Piloter l'évaluation et la rationalisation du portefeuille applicatif. * Promouvoir des trajectoires de modernisation alignées avec la stratégie de la DSI de la banque. E. Innovation et amélioration continue * Effectuer une veille technologique et proposer des pistes d'innovation adaptées aux services financiers de la banque. * Animer des ateliers avec les parties prenantes pour aligner besoins, risques, architecture et planning. 3. Livrables attendus * Cartographie du SI à jour (applications, données, flux, tiers). * Modèle de capacités (capability map métier et IT) et trajectoire pluriannuelle. * Dossiers d'architecture (HLD/LLD, standards et patterns). * Avis d'architecture + registre des dérogations et plans de remédiation. * Exigences d'exploitabilité (« Architecture Run Readiness »). * Référentiel DORA Art. 8 : inventaires, actifs critiques, interdépendances, configurations. 4. Indicateurs de performance (KPI/KRI) KPI : * Taux de couverture des cartographies (applications, flux, tiers) et délais de mise à jour post-changement. * % de projets majeurs validés en revue d'architecture avant Go-Live. * Réduction de la redondance applicative et de la complexité. KRI : * Zones non cartographiées du SI sur les périmètres critiques. * Nombre de dépendances critiques non maîtrisées. * Nombre de dérogations sans plan de remédiation ou exceptions permanentes. Compétences requises Compétences techniques : * Vision transverse : business, data, applicatif, intégration, infrastructure, cloud/hybride. * Expertise en urbanisation SI, architecture API/événementielle, data governance. * Maîtrise des concepts de résilience (PRA/PCA, observabilité, SRE). * Connaissance des exigences réglementaires (notamment DORA Art. 8). Compétences comportementales : * Excellente communication orale et écrite, capacité de synthèse et de vulgarisation. * Leadership d'influence, capacité à challenger de manière constructive. * Rigueur, sens du risque et exigence de traçabilité « audit-proof ». * Capacité à arbitrer valeur vs risque vs coût vs délai.
Freelance

Mission freelance
Assurance - Data Management

FINAX Consulting
Publiée le
Data management

6 mois
550-700 €
Paris, France
Consultant Senior en Data Management – Gouvernance Data (Assurance) Consultant freelance en Data Management Nous recherchons un consultant Senior en Data Management pour le compte d’un de nos clients assurance dans le cadre d’un projet de renforcement de la gouvernance Data et de montée en compétence des équipes métiers. Contexte Dans un contexte de structuration des pratiques Data et d’accélération de la maturité des Data Domains Managers, la mission vise à constituer un pool d’experts capables d’intervenir à la fois sur les dimensions opérationnelles, méthodologiques et pédagogiques du Data Management, au sein d’un environnement exigeant et régulé. Rôles et responsabilités Contribuer à l’identification, à la structuration et à la valorisation des données clés de l’organisation, en lien avec les équipes métiers et Data. Mettre en place et maintenir une documentation de données fiable et exploitable (dictionnaires, métadonnées, référentiels), alignée avec les standards de gouvernance. Définir et piloter des indicateurs de qualité des données, analyser les écarts et accompagner les actions d’amélioration. Accompagner les Data Domains Managers dans l’appropriation des outils et des pratiques de Data Management, notamment via Collibra. Concevoir et animer des dispositifs de montée en compétence (supports, guides, ateliers) favorisant l’autonomie des équipes et la diffusion des bonnes pratiques. Intervenir en appui sur des initiatives Data structurantes afin de sécuriser les délais, la qualité et la cohérence globale du dispositif de gouvernance. Compétences requises Expertise confirmée en Data Management et Data Governance, acquise dans des environnements complexes et régulés. Maîtrise des outils de catalogage et de gouvernance des données, idéalement Collibra. Solide expérience en qualité des données (définition des règles, suivi des indicateurs, plans d’amélioration). Capacité à produire une documentation claire, structurée et orientée métiers. Forte aisance relationnelle et capacité pédagogique pour accompagner et faire monter en compétence des interlocuteurs non techniques. Autonomie, rigueur et capacité à évoluer dans un contexte assurance. Détails de la mission Démarrage : 16/02/26 Durée : 5.5 mois (jusqu'au 31/07/26) Lieu : Paris Statut : Consultant indépendant / freelance
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance

Mission freelance
Senior Data Engineer GCP

Groupe Aptenia
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Freelance
CDI

Offre d'emploi
Expert Agentic AI & LLM

R&S TELECOM
Publiée le
AWS Cloud
Azure
Hortonworks Data Platform (HDP)

1 an
Malakoff, Île-de-France
CONTEXTE GENERAL : Dans un contexte de transformation numérique et d’essor rapide de l’intelligence artificielle générative et agentique, le Groupe, via sa DSI centrale, souhaite structurer et maîtriser l’introduction de ces technologies au sein de son système d’information. L’objectif est d’explorer les apports de l’Agentic AI pour soutenir les métiers et les fonctions transverses. Missions : Partenariats & écosystème plateformes Cartographier l’écosystème des éditeurs/intégrateurs et identifier les bons interlocuteurs. Préparer, animer et restituer les workshops partenaires (ex. AWS, Microsoft, MuleSoft, Snowflake). Évaluer les offres (frameworks, orchestration, observabilité, sécurité, gouvernance, intégration SI). Discovery & cas d’usage Agentic AI Animer des ateliers multi-domaines pour : • définir des cas d’usage transverses (support, IT ops, knowledge assistant, productivité dev, automation), • définir des cas d’usage spécifiques à l’aéronautique (maintenance, supply chain, engineering, ops, qualité, MRO, doc). Formaliser les cas d’usage : objectifs, périmètre, acteurs, données, risques, critères de succès. Prioriser selon valeur/risque/effort (quick wins vs bets stratégiques). Recommandations plateformes & trajectoire Proposer des patterns d’architecture Agentic AI (RAG, multi/single agent, event-driven, human-in-loop). Recommander plateformes/briques : cloud, iPaaS, API management, vector DB, orchestration, MLOps/LLMOps. Définir la trajectoire de déploiement : MVP → industrialisation, critères de passage en production, exigences non fonctionnelles. Portfolio, roadmap & gouvernance Construire un portfolio projet (lots, jalons, budget, staffing, dépendances SI). Définir la gouvernance : prise de décision, sécurité, conformité, data governance, gestion des risques, modèle opérationnel. Exploration technologique & livrables Piloter des tech spikes/POC orientés faisabilité et design. Produire un livre blanc interne : standards, patterns, comparatif plateformes, guidelines sécurité, recommandations d’industrialisation, retours d’expérience.
Freelance

Mission freelance
Accompagnement en Agentic AI - Secteur Défense

Codezys
Publiée le

3 mois
Malakoff, Île-de-France
Contexte général : Le Groupe, via sa DSI, souhaite maîtriser l’intégration des technologies d’ Agentic AI dans son système d’information afin de soutenir les métiers et fonctions transverses, dans un contexte de transformation numérique et d’essor de l’ IA générative . Profil recherché : Architecte logiciels/applicatifs, capable d’expliquer à la fois au niveau C-level et technique Expérience avec AWS, Azure, hyperscalers, et plateformes comme Snowflake Organisation de rencontres avec les fournisseurs, comparaison et sélection en fonction des cas d’usage Recommandations d’implémentation et intégration de projets métiers Connaissance de standards IT pour le groupe et de l’architecture Capacité à monter en compétences rapidement et à s’intégrer dans une équipe d’architecture Objet de la consultation : Animation des échanges avec partenaires plateforme (AWS, Microsoft, MuleSoft, Snowflake, etc.) Définition, priorisation et cadrage des cas d’usage Agentic AI (généraux et aéronautiques) Recommandation des plateformes, architectures et outillages adaptés Construction d’un portefeuille d’initiatives (roadmap, lots, trajectoire) Exploration technologique (POC, tech spike) et productions de livrables (livre blanc, patterns, REX, guidelines) Logistique : Lieu : Malakoff Temps partiel : 3 jours/semaine (possible) Durée : du 16/02/2024 au 15/05/2026 (renouvelable) Niveau : Expert Focus : Cloud, transformation Type de prestation : Expertise, intégration, conseil Nationalité ......................... recommandée Objectifs et livrables : Partenariats & écosystème : Cartographier l’écosystème, identifier interlocuteurs, conduire workshops (AWS, Microsoft, MuleSoft, Snowflake), évaluer offres Discovery & use cases : Animer ateliers pour définir et prioriser des use cases transverses et aéronautiques, formaliser objectif, périmètre, données, risques, critères de succès Recommandations plateformes et architectures : Patterns d’architecture (RAG, multi-agents, workflows), plateformes, trajectoire (MVP à industrialisation) Portfolio, roadmap et gouvernance : Définir projets, jalons, budgets, gouvernance (décision, sécurité, conformité, data governance) Exploration technologique & livres blancs : Tech spikes/POC pour faisabilité et design, production de guides, standards, recommandations, retours d’expérience
Freelance

Mission freelance
Workday Data Lead

INVESTIGO
Publiée le

600-700 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Data Lead to oversee all data-related activities for a greenfield Workday implementation covering HCM, Financials (FINS), and Professional Services Automation (PSA). The role will be accountable for defining and delivering the end-to-end data strategy, ensuring data quality, integrity, and overall readiness across all Workday modules. Working closely with functional leads, reporting, integrations, security teams, and business stakeholders, the Data Lead will provide leadership across data conversion, validation, testing, and go-live phases of the programme. Required Skills & Experience Proven experience operating as a Workday Data Lead or Senior Data Manager on large-scale Workday implementations. Strong hands-on expertise across Workday HCM, Workday Financials, and Workday Professional Services Automation (PSA). Demonstrated experience delivering greenfield Workday implementations from initiation through go-live. Deep understanding of Workday data models, data governance, and data conversion strategies. Strong leadership, communication, and stakeholder management capabilities. Experience identifying, managing, and mitigating data-related risks within complex, multi-stream programmes. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Freelance

Mission freelance
Chef de programme Data / Banque - Migration Datalake

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
Chef·fe de Programme Data - Migration Datalake 🚀 Lieu : Paris 📍 * Contrat : Freelance/Assistance technique 🤝 * Démarrage : Jan 2026 ⏱️ * Durée : jusqu'au 31/12/2026 (~218 j) 🗓️ Mission 🎯 Piloter la migration d'un datalake local vers un datalake groupe dans un environnement international (organisation globale basée aux 🇳🇱). Assurer la gouvernance et le pilotage : planning, actions log, risk log, roadmap, tableaux de bord, reporting direction 📊. Garantir l'intégrité des données et la continuité des reportings réglementaires (Finance, Paiements, Transactions, KYC) ✅. Co‑gestion du programme avec un prestataire offshore et un Program Manager au niveau groupe 🤝. Animation des instances (comités projet/direction), coordination équipes métiers & IT, levée d'obstacles, suivi des livrables 🧭. Environnement & périmètre 🔍 Migration lake‑to‑lake avec forte dimension data governance et qualité de données. Publics variés : technique, métier et exécutif (adaptation du discours, synthèse et pédagogie) 🗣️. Cadence structurée : plans d'itération, revues de risques, points d'alignement multi‑stakeholders 📑. Profil recherché 👤 10-15 ans en program management / projets data complexes (banque/assurance idéalement) 🏦. Solides bases en data modeling et architecture data 🧠. Expérience avérée des livrables de gouvernance (plans, dashboards, rapports de direction) 🧾. Outils : ETL (DataStage / pipelines) & Power BI 🛠️. Leadership d'influence, excellente communication (tech ↔ business) et capacité à aligner des équipes pluridisciplinaires 🎛️. Français courant 🇫🇷 & anglais professionnel 🇬🇧 (impératif). Modalités 🧩 🏢 * Pas de déplacements ✈️ * Pas d'astreintes 🌙. Périmètre France avec interface groupe : coordination locale/globale 🔄.
Freelance
CDI

Offre d'emploi
Ingénieur Cybersécurité (PAM WALLIX)

EXMC
Publiée le
Azure Active Directory
CyberSoc
Gestion des accès privilégiés (PAM)

6 mois
55k-75k €
550-700 €
Luxembourg
Mission : Les prestations du Prestataire consisteront notamment en (non exhaustif) : Opérations & Sécurité quotidienne (Business As Usual) § Assurer le fonctionnement opérationnel des services de sécurité conformément aux politiques internes. § Administrer et maintenir les règles de firewalls, analyser les flux, valider la conformité et optimiser les configurations § Gérer les comptes à privilèges et les accès sensibles via les solutions de PAM, avec application du principe du moindre privilège. § Traiter les demandes d’accès logiques et s’assurer de leur conformité avec les rôles et responsabilités établis. § Modéliser les applications et les rôles métiers. § Superviser le cycle de vie des certificats : inventaire, renouvellements, génération CSR, coordination des déploiements. § Gérer les demandes d’accès à Internet selon les exigences de sécurité. § Analyser et traiter les emails bloqués ou suspects en appliquant les règles de détection. § Participer à la revue périodique des droits et produire les justificatifs requis. Gestion des vulnérabilités & Remédiation § Piloter les campagnes d’analyse de vulnérabilités, assurer la bonne configuration des scans et la qualité des résultats. § Prioriser et analyser les vulnérabilités selon les référentiels et les politiques internes de gestion de risques. § Produire des rapports consolidés destinés aux équipes IT et à la gouvernance. § Coordonner, planifier et suivre la remédiation avec les équipes IT. § Vérifier la correction effective des vulnérabilités et maintenir un tableau de bord de suivi. § Identifier les récurrences et proposer des améliorations de fond (hardening, configuration management). Ge stion des incidents & Surveillance • Assurer une analyse de premier et second niveau sur les alertes issues du SIEM, du SOC ou des outils EDR/NDR. • Qualifier les incidents, contribuer au containment, analyser les indicateurs d’intrusion et proposer les actions correctives. • Documenter les incidents (chronologie, impacts, IOC, recommandations) et participer au processus de post-mortem. • Escalader les incidents critiques vers les équipes CERT ou expertises internes lorsque nécessaire. • Contribuer à la mise à jour du cadre documentaire de gestion d’incidents et des runbooks sécurité. • Participer à la surveillance continue et à l’optimisation des règles de détection. • Sécurité, conformité & amélioration continue • Appliquer les politiques, standards et procédures sécurité (ISO 27001, directives internes, exigences d’audit). • Contribuer à la remédiation issue des évaluations de conformité (audit interne/externe, régulateur, contrôles thématiques). • Participer aux projets de renforcement de la posture sécurité (PAM, IAM, segmentation réseau, SIEM, Data Governance, Hardening, MFA) • Élaborer et maintenir les tableaux de bord sécurité (KPIs, KRIs, SLAs). • Identifier les opportunités d’automatisation des tâches répétitives via scripts ou outils internes. • Suivre la veille cybersécurité, identifier nouvelles menaces et recommander des mesures adaptées.
76 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous