Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 691 résultats.
Freelance
CDI

Offre d'emploi
Directeur de projet Infrastructure / OM Workspace Experience

VISIAN
Publiée le
Cloud
Management

1 an
40k-45k €
400-580 €
Île-de-France, France

Contexte Rattaché au responsable d'équipe Offering & Change Management, le rôle principal de l'Offering Management "Workspace Experience" est de garantir une expérience optimale des collaborateurs sur les services Workspace, en cohérence avec la stratégie unifiée Telecom & Workspace. Il s'agit de piloter la structuration, la formalisation et l'évolution des offres de services Workspace, en s'appuyant sur une expertise technico-fonctionnelle et une connaissance approfondie du parcours utilisateur sur les produits existants côté Workspace (devices et espaces partagés). Missions principales Cartographie des services existants sur le périmètre Workspace (devices, salles de réunion, imprimantes…), en collaboration avec les PO, pour identifier les offres actives, les écarts et les zones d'ombre. Analyse des retours utilisateurs (enquêtes, feedback terrain, tickets) et les intégrer dans les roadmaps définies par les PO et les équipes techniques. Contribution à la définition et à l'évolution des offres Workspace, en lien étroit avec l'équipe Offering et les parties prenantes métiers. Promotion de l'offre Workspace auprès des utilisateurs et relais internes, en animant la communauté des PO & OM avec des contenus engageants (guides, bonnes pratiques, retours d'expérience…) Participation à la simplification du catalogue et à l'amélioration de l'expérience utilisateur. Force de proposition sur les évolutions à venir (ex. : intégration IA, offres packagées, convergence device & réseau).

Freelance

Mission freelance
Ingénieur/Intégrateur DevOps H/F

INFOTEL CONSEIL
Publiée le
Ansible
Apache
Datadog

6 mois
400-600 €
Le Mans, Pays de la Loire

Mission Dans le cadre de l’ingénierie et du maintien en conditions opérationnelles d’une plateforme d’observabilité applicative basée sur la solution SaaS Dynatrace , la prestation portera sur : La participation aux projets techniques et fonctionnels, ainsi qu’au traitement des demandes des différentes équipes informatiques et métiers. La garantie du bon fonctionnement, de la performance et des évolutions de l’offre de services Observabilité Dynatrace, en adéquation avec les attentes des utilisateurs. Une réalisation de la mission idéalement depuis le site du Mans. Prestations attendues Le prestataire interviendra notamment pour : Optimiser le cycle de vie complet de la plateforme : conception, déploiement, exploitation et amélioration continue. Développer et intégrer des fonctionnalités d’ observability as code , incluant la gestion automatisée des objectifs de niveau de service (SLO) dans les pipelines CI/CD. Apporter une expertise en automatisation, développement, algorithmes, analyse de complexité et conception de systèmes à grande échelle. Assurer l’onboarding des usages et des applications sur la plateforme, conformément aux pratiques et processus établis. Maintenir les services en production en surveillant la disponibilité, la latence et l’état global du système. Fournir un rôle de conseil et de support technique aux équipes DevSecOps. Contribuer activement à l’animation de la communauté Dynatrace interne.

Freelance

Mission freelance
Expert Entra ID

VORSTONE
Publiée le
Azure
Azure Active Directory
microsoft

1 an
520-970 €
Saint-Denis, Île-de-France

Missions principales · Etudier et concevoir les stratégies d’accès (Cross-tenant, Attributes Sync, Cross-Access...) · Conception de politique d’authentifications externes au SI · Concevoir, déployer et maintenir des politiques d’accès conditionnel (Conditional Access) avancées (MFA, compliance device, filtres, scoping...). · Participer activement à la stratégie de sécurité basée sur Zero Trust. · Gérer les scénarios d’exclusions temporaires, d’urgence (break glass), et de montée de privilèges. · Collaborer avec les équipes Sécurité (SOC, CERT) pour aligner les stratégies d’accès sur les risques opérationnels. · Assurer un suivi rigoureux des politiques : documentation, versions, impact utilisateur, intégration des recommandations Microsoft. · Définir les stratégies d’évaluation périodique des accès conditionnels : o Simulations o Alerting o Analyse post-déploiement. · Produire des rapports réguliers sur l’usage, les accès bloqués, les ajustements nécessaires. · Sensibiliser les parties prenantes (équipes internes, RSSI, IT) aux impacts et enjeux des politiques mises en place.

Freelance

Mission freelance
Expert Infrastructure DBA Oracle Exadata (h/f)

emagine Consulting SARL
Publiée le

12 mois
500-650 €
93100, Paris, Île-de-France

emagine recherche pour l’un de ses clients grand compte un DBA Oracle Exadata : Lieu : Montreuil Durée : >12 mois Démarrage : ASAP Télétravail : 2.5 jours / semaine Résumé Intégrer l'équipe de mise en œuvre technique DBA Oracle responsable de la fourniture et du maintien opérationnel des moteurs et instances de bases de données sur un environnement Open. Responsabilités : Mise en œuvre technique des SGBD Oracle/Exadata/Exadata Cloud Customer. Mise en place des procédures d’exploitation des bases de données (surveillance, sauvegarde). Patch management et audits. Support N3 et astreinte 24/7. Industrialisation des procédures et validation des nouvelles versions produits. Gestion de la relation avec les éditeurs. Administration de bases de données Oracle/Exadata dans un environnement de production bancaire. Automatisation via scripting UNIX, Perl, Python, SQL. Must Haves : Expérience avec les SGBD Oracle/Exadata. Compétences en scripting (Shell, Perl, SQL). Connaissance de l'administration des bases de données dans un environnement de production bancaire. Nice to Haves : Compétences en Python. Expérience en support niveau 3 sur des environnements RAC sur Linux. Compétences en documentation technique. Autres détails : Localisation : Environnement hybride avec les DBA de Bucarest. Langue : Anglais indispensable. Qualités requises : capacité à travailler transversalement, rigueur, autonomie.

Freelance

Mission freelance
Expert OpenStack Senior.

QUALIS ESN
Publiée le
Cloud
OpenStack

6 mois
400-550 €
Lognes, Île-de-France

L’ingénieur assure la maintenance de l’infrastructure Cloud (serveurs physiques, virtuels et cloud). • Maintient en condition opérationnelle les infrastructures systèmes, diagnostique les pannes et les dysfonctionnements liés au hardware ou aux logiciels. • Résout les pannes et les dysfonctionnements. • Réalise les installations from stratch des serveurs. • Assure une maintenance évolutive et corrective en fonction des grandes évolutions technologiques (notamment les changements de versions). • Mesure et optimise les performances des systèmes d’exploitation (tuning). • Installe les patchs de sécurité. • Administration des infrastructures Cloud (Openstack, Openshift) • Veille à la sécurité et à la fiabilité des systèmes du Ministère. • Veille à la sécurité des accès et à la fiabilité des solutions déployées. • Industrialise les actions récurrentes (Évolution/maintien de l'outillage, déploiement

Freelance
CDI

Offre d'emploi
Assistant RSSI

OBJECTWARE MANAGEMENT GROUP
Publiée le
Cybersécurité
ISO 27001
NIS2

3 mois
Île-de-France, France

Contexte Mise en place d’une politique RSSI Missions : Définir la stratégie de sécurité Élaborer et maintenir la politique de sécurité du SI (PSSI). Définir les normes, procédures et bonnes pratiques. Mettre en place une gouvernance de la sécurité. Gestion des risques Réaliser des analyses et cartographies des risques. Mettre en place un plan de traitement des risques (PCA/PRA). Superviser les audits de sécurité et la conformité réglementaire (RGPD, ISO 27001, NIS2, etc.). Protection des systèmes et des données Superviser la sécurité réseau, systèmes, applications et postes de travail. Assurer la protection des données sensibles et personnelles. Sensibilisation et formation Former et sensibiliser les collaborateurs à la cybersécurité. Promouvoir une culture de la sécurité dans l’entreprise. Pilotage et reporting Produire des tableaux de bord sécurité pour la direction. Suivre les indicateurs de sécurité et le niveau de conformité. Profil : Techniques : Connaissance des solutions de cybersécurité : pare-feu, IDS/IPS, antivirus, DLP, IAM, PKI, SOC/SIEM. Maitrise des normes et référentiels : ISO 27001/27005, NIST, EBIOS, ITIL, COBIT. Notions en cryptographie, sécurité applicative, tests d’intrusion, DevSecOps. Organisationnelles : Gestion de projet et de programme sécurité. Management d’équipes pluridisciplinaires (SOC, pentesters, consultants, etc.). Capacité de pilotage budgétaire et suivi des prestataires. Relationnelles : Pédagogie et capacité à vulgariser des sujets techniques. Leadership et influence auprès de la direction et des métiers. Gestion de crise et prise de décision rapide.

Freelance

Mission freelance
Expert Power Platform - Mission ASAP d'audit & structuration - 92

Montreal Associates
Publiée le
Microsoft Power BI
Power Apps
Power Automate

4 mois
400-550 €
Nanterre, Île-de-France

🚀 𝗘𝘅𝗽𝗲𝗿𝘁 𝗣𝗼𝘄𝗲𝗿 𝗣𝗹𝗮𝘁𝗳𝗼𝗿𝗺 – 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗔𝗦𝗔𝗣 𝗱'𝗔𝘂𝗱𝗶𝘁 & 𝗦𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗮𝘁𝗶𝗼𝗻 - 𝟵𝟮 🚀 📍 𝟵𝟮 ⏳ 𝗔𝗦𝗔𝗣 - 𝗠𝗶 𝘁𝗲𝗺𝗽𝘀 𝘀𝘂𝗿 𝟰 𝗺𝗼𝗶𝘀. 🌍 𝗙𝗿𝗮𝗻𝗰̧𝗮𝗶𝘀 & 𝗔𝗻𝗴𝗹𝗮𝗶𝘀 𝗰𝗼𝘂𝗿𝗮𝗻𝘁 🎯 𝗟𝗲 𝗽𝗿𝗼𝗷𝗲𝘁 Notre client recherche un Expert Power Platform pour une mission stratégique et de court terme. Objectif => auditer les usages actuels de la Power Platform Factory, identifier les risques et écarts, puis proposer un plan structuré pour professionnaliser les pratiques et sécuriser les usages. Vous interviendrez sur => L’audit approfondi des environnements, pratiques et usages existants La définition d’un plan d’action structurant aligné sur les standards IT globaux L’encadrement des dev et la mise en place de bonnes pratiques Le cadrage fonctionnel avec les métiers et la priorisation des cas d’usage La contribution à la gouvernance et la sécurisation des solutions Power Platform 🛠️ 𝗖𝗼𝗺𝗽𝗲́𝘁𝗲𝗻𝗰𝗲𝘀 𝗮𝘁𝘁𝗲𝗻𝗱𝘂𝗲𝘀 Expertise Microsoft Power Platform de 6 ans minimum (Apps, Automate, BI, Pages, Dataverse) Solide expérience en audit et gouvernance IT Maîtrise des processus ITSM et bonnes pratiques (ITIL apprécié) Forte expérience des environnements Microsoft 365 Excellente capacité d’analyse, de structuration et de communication On en parle ? #freelance #microsoft #powerplatform #powerapss #m365

Freelance
CDI

Offre d'emploi
Expert OPENSHIFT

CELAD
Publiée le
Analyse

12 mois
40k-50k €
400-600 €
75652 CEDEX 13, Paris, Île-de-France

Définir et maintenir l'architecture technique (référentiel) de tout ou partie du système d'information en veillant à la cohésion entre les aspects matériels, applicatifs, systèmes d'exploitation, réseaux… Garantir la cohérence, la pérennité et analyse les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante Etablir des préconisations pour tout nouveau projet ou nouvelle technologie et conseille l'urbaniste sur l'utilisation et les implémentations possibles des outils Communiquer l'architecture auprès des équipes projet (conception, développement, intégration, tests...) Organiser les choix de veille technologique Garantir les bonnes performances de l'architecture, de la stabilité, d'évolution, et des délais de réponse des services Définir l'architecture technique du ou des systèmes d'information Vérifier et analyser les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante Définition et gestion du référentiel du système informatique sur les plans : outils, procédures, normes, vocabulaire, sécurité… Définition et gestion des standards techniques Pour tout nouveau projet ou toute nouvelle technologie, participer à l'étude d'impact sur l'architecture existante ou prévisionnelle Préconiser des choix techniques en vue d'assurer la cohérence de cette évolution Conseiller l'urbaniste sur l'utilisation et les implémentations possibles des outils informatiques et de télécommunications Organiser les choix de veille technologique Travailler en équipe avec l'Urbaniste des SI Promouvoir l'architecture technique auprès des informaticiens

CDI

Offre d'emploi
Data Manager / Expert Analytics (H/F)

Harry Hope
Publiée le

30k-45k €
France

Vos missions Paramétrer et administrer des outils de mesure d'audience adaptés aux besoins de l'agence et de ses clients (GA4, Matomo, etc.) Collecter, structurer et analyser les données statistiques des sites web Produire des rapports clairs, pédagogiques et orientés performance Participer à des réflexions CRO (analyse UX, tunnel de conversion, A/B testing, etc.) Intervenir en transversal avec les pôles SEO, SEA, CRM et stratégie Maintenir un haut niveau de qualité dans la relation client

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
Architecte Infrastructure

ALLEGIS GROUP
Publiée le
Cybersécurité
Déploiement
Réseaux

3 mois
400-750 €
Marseille, Provence-Alpes-Côte d'Azur

Bonjour je suis à la recherche d'un architecte Infrastructure dont vous trouverez la fiche de poste ci-dessous: Missions principales Qualification des solutions d’infrastructure (Niveau 3) : Analyser, tester et valider les solutions techniques proposées pour garantir leur robustesse et leur conformité. Analyse technique & validation : Apporter un regard critique sur les architectures proposées, identifier les points de défaillance potentiels et proposer des optimisations. Respect des normes de sécurité : S’assurer que toutes les solutions sont conformes aux politiques de sécurité en vigueur (authentification, segmentation, chiffrement, etc.). Analyse des architectures techniques : Décomposer les solutions complexes, identifier les composants critiques et évaluer leurs impacts sur l’infrastructure globale. Support au déploiement : Accompagner les équipes projets et opérationnelles lors des phases d’installation pour garantir la cohérence et la qualité des déploiements. Expertise en connectivité et sécurité réseau : Intervenir sur les aspects liés à la connectivité (firewall, proxy, VPN, etc.) et à la sécurité (authentification, contrôle d’accès, etc.). Connaissances en réseau et cybersécurité : Évaluer les risques, proposer des solutions sécurisées et participer à la définition des standards techniques. Notions de VDI (Virtual Desktop Infrastructure) : Comprendre les environnements virtualisés (Citrix, VMware, etc.) et leur intégration dans l’écosystème infrastructure.

CDI

Offre d'emploi
Expert IAM BRAINWAVE - F/H

AVANISTA
Publiée le

Guyancourt, Île-de-France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert IAM BRAINWAVE au sein de nos équipes pour l'un de nos clients. Le contexte ? Le Centre Opérationnel de Cyberdéfense a la charge de concevoir les dispositifs de sécurité du groupe pour faire face aux menaces cyber. Le socle Cyberdéfense : - Conçoit et opère les dispositifs de sécurité, prévention, surveillance, secours et remédiation - Donne la vision sécurité opérationnelle globale - Dispose des expertises sécurité sur toutes les technologies - Travaille au renforcement continu des dispositifs de sécurité du Groupe Vous intégrerez l'équipe « Habilitation et Moyens de Cryptologie » qui assure au quotidien : - La gestion des identités et des habilitations à l'aide des solutions d'IAM (Identity Access Management) qui sont leaders dans ce domaine - La gestion des comptes à forts privilèges via les principales technologies de bastions et de coffres forts numériques ? Un pôle de compétence cryptographique, qui a la responsabilité opérationnelle de toutes les infrastructures de délivrance des certificats (PKI) du Groupe et de tous les boitiers cryptographiques (HSM), ainsi que de toutes les technologies cryptographiques, utilisés au sein des différentes entités du Groupe. Vos missions ? Vous intégrerez l'équipe en charge du recueil des besoins des équipes d'administration du SI et vous devrez les challenger pour vous assurer de la pertinence de leurs demandes par rapports aux bonnes pratiques PAM, puis décliner leurs demandes de manière opérationnelle dans Brainwave. Vous devrez assurer le suivi auprès des équipes du bon fonctionnement des cas d'utilisations couverts par Brainwave et vous assurer du respect des bonnes pratiques par ces équipes. - Embarquement des usages des équipes d'administration dans Brainwave - Challenger les équipes sur le respect des exigences de sécurité (LPM, PSSI, ...) - Accompagnement des administrateurs sur leurs nouveaux usages - Tests, résolution d'incidents- Industrialisation via Ansible - Montée de version Brainnwave et patch management - Corrections de vulnérabilités brainwave IAM

Freelance

Mission freelance
Expert sécurité GCP H/F - 75

Mindquest
Publiée le
Google Cloud Platform (GCP)

3 mois
290-600 €
Paris, France

Un de nos clients recherche un Consultant H/F spécialisé dans la sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux. Mission * Évaluer les services GCP sur les aspects de sécurité selon les règles et identifier les points de contrôle. * Implémenter les contrôles de sécurité sur les outils de sécurité (CSPM, Sentinel HashiCorp, outil de gouvernance, …). * Qualifier et étudier les évolutions des services GCP de type Private Service * Connect et être en mesure de proposer des solutions si des problèmes de sécurité sont signalés. * Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations de sécurité. * Gérer les incidents et le suivi des non-conformités

CDI

Offre d'emploi
Expert·e Cyber Résilience

Blue Soft
Publiée le

50k-60k €
Paris, France

Pour le compte de l'un de nos clients dans le milieu bancaire, nous recherchons un·e Expert·e Cybersécurité Résilience ! En tant que Consultant·e Cybersécurité Résilience, Vos missions seront : - Protéger l'intégrité informatique et fonctionnelle - Garantir la continuité des opérations, PCA/PRA - Maîtriser les exigences DORA Les prérequis : - Avoir eu une expérience dans le milieu bancaire - Bilingue en anglais serait un plus

CDI
Freelance

Offre d'emploi
Directeur de Programme - Data/IA

Signe +
Publiée le

24 mois
55k-60k €
393-600 €
Paris, France

Compétences techniques : Utilisation des outils de suivi d'activité : Jira Software. Expertise IA non Gén/Data Science : python/modèles (pour identification de la bonne technologie pour chaque cas d'usage et lien matrice valeur effort) AWS : Sagemaker (Studio, intégration, ... ), Terraform, expertise RAG (avec contrainte monde bancaire pour exposition des données...) Maitrise des solutions Microsoft (Teams, SharePoint, etc.) et des outils bureautiques (Word, Excel, Powerpoint) Compétences humaines : Très bonne communication écrite et orale en restant humble - esprit de synthèse Esprit d'équipe et capacité à fédérer plusieurs équipes qui ont pour objectif de suivre et développer le périmètre produit Aisance à échanger au quotidien avec tous types d'interlocuteurs (à tous les niveaux de séniorité : Data Eng, Data Scientist)...

CDI

Offre d'emploi
Responsable Sécurité des Systèmes d’Information – Projet Parapheur Électronique -Paris (H/F)

RIDCHA DATA
Publiée le
Cybersécurité
Gestion des risques
ISO 27001

Ivry-sur-Seine, Île-de-France

Contexte FAST recherche un Responsable Sécurité des Systèmes d’Information (RSSI) confirmé pour accompagner son projet stratégique autour du Parapheur Électronique dans le cadre de l’obtention de la certification ISO 27001 prévue en janvier 2026. La mission s’articule autour du pilotage de la conformité, de la gouvernance cyber, ainsi que du maintien et du renforcement des dispositifs de sécurité de l’information au sein de la BU Archivage et Facture Électronique. Missions principales 📌 Pilotage de la certification ISO 27001 Réaliser la revue de direction et piloter la correction des écarts identifiés par l’audit interne prévu en septembre 2025. Préparer et accompagner le passage de l’audit initial de certification ISO 27001 avec succès (janvier 2026). Assurer le maintien de la certification ISO 27001 de la BU Archivage et Facture Électronique. 📌 Gouvernance & sécurité Mettre en œuvre une gouvernance cyber sur une filiale. Définir la gouvernance de la sécurité de l’information au sein de l’entreprise et dans l’entreprise élargie. Identifier les risques et définir la politique de sécurité (audits, plan de prévention, plan de continuité d’activité, charte sécurité, choix technologiques). Définir et piloter le dispositif de sécurité (normes, outils, suivi des incidents, audits). 📌 Conformité & protection des données S’assurer du respect des exigences légales et réglementaires, notamment en matière de protection des données personnelles (RGPD). Mettre en place et maintenir les bonnes pratiques de sécurité documentaire et opérationnelle. 📦 Livrables attendus Revue de direction et plan de correction des écarts Dossier de préparation et preuves pour l’audit ISO 27001 Politique de gouvernance cyber adaptée à la filiale Documentation de suivi de conformité et des risques 🛠️ Compétences recherchées Expertise en gouvernance et certification ISO 27001 – Confirmé, impératif Expérience en gestion de la sécurité des systèmes d’information (RSSI) – Confirmé Connaissance approfondie des processus de gestion des risques, plans de prévention et PCA Maîtrise des normes et bonnes pratiques de cybersécurité (ANSSI, ISO, NIST, etc.) Sens de la rigueur, de l’organisation et capacité de pilotage transverse

1691 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous