L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 105 résultats.
Offre d'emploi
Mission freelance - DevOps SRE – Production & Monitoring Azure / Dynatrace - PARIS
KUBE Partners S.L. / Pixie Services
Publiée le
Azure DevOps
DevOps
Site Reliability Engineering (SRE)
3 ans
Paris, France
Bonjour à tous ! pour renforcer l'équipe de l'un de nos clients, je recherche un(e) : DevOps SRE Production Monitoring Azure Dynatrace Le client recherche un DevOps orienté SRE avec une forte expérience en production et en Run. Il travaillera avec l’équipe projet pour mettre en place le monitoring et assurer le suivi. Missions : Mise en place et suivi du monitoring sur un environnement Azure avec Dynatrace. Gestion des alertes et du suivi liés au monitoring. Compétences : Expérience DevOps/SRE en production. Maîtrise de GitHub, Azure et Dynatrace. Solide expérience en monitoring. Informations complémentaires : Localisation : Paris (2 à 3 jours de télétravail par semaine) Durée : Long terme (3 ans) - démarrage sous 1 mois MAX Statut : Freelance ou portage Profil recherché : DevOps/SRE autonome, orienté production, avec une forte expertise en monitoring sur Azure et Dynatrace. Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger. Merci
Mission freelance
Chef Projet Technique .NET
INSYCO
Publiée le
.NET
AWS Cloud
DevOps
6 mois
600-700 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef Projet Technique .NET. Nous étudions prioritairement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/CPT/5114 dans l’objet de votre message Mission : Le système concerné gère un ensemble d’applications métiers couvrant l’intégralité du cycle de vie des activités opérationnelles pilotées par l’organisation. D’un point de vue technique, l’écosystème applicatif repose sur un progiciel central de gestion opérationnelle, entouré de plusieurs applications métiers développées en interne. Ce système est utilisé par différentes entités organisationnelles réparties sur plusieurs périmètres opérationnels. Le déploiement du progiciel central est déjà finalisé sur une partie du périmètre organisationnel et se poursuit actuellement sur d’autres entités. La prestation consiste à accompagner les évolutions techniques de ce système, à coordonner les transformations d’architecture et à piloter les interactions avec les différents acteurs techniques. Les activités principales de la prestation incluent : compréhension approfondie de l’écosystème technique et de ses interactions avec le système applicatif central maîtrise des concepts et enjeux IT liés aux interactions entre ce système central et l’ensemble de l’écosystème informatique capacité à porter une vision d’architecture fonctionnelle et technique réalisation d’un inventaire détaillé de l’existant proposition et mise en œuvre de pistes de modernisation technologique rôle d’interlocuteur privilégié avec les équipes IT et les équipes d’exploitation, notamment dans le cadre du projet de migration vers un Data Center rôle d’interlocuteur technique avec l’éditeur de la solution centrale ainsi qu’avec les équipes de développement internes contribution à la prescription, à la spécification et à la mise en œuvre des solutions techniques relevant du périmètre responsabilité de la compréhension, de l’évolution et du maintien du socle technique du système d’information (bases de données, interfaces, API) coordination des activités techniques liées à la vie du service : mises en service opérations de maintenance suivi opérationnel de l’activité accompagnement de la direction informatique dans son programme de transformation visant à favoriser les architectures Cloud Native participation aux choix d’architecture liés aux enjeux de gouvernance et d’urbanisation de la data coordination d’actions de déploiement du progiciel central au sein des différentes entités de l’organisation.
Offre d'emploi
Architecte Cloud AWS
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Architecte Cloud AWS senior pour un programme de transformation Data & IA en environnement R&D régulé. Définition d’architectures de référence, conception d’une Landing Zone AWS multi-comptes sécurisée et gouvernée, mise en place de standards DevSecOps et compliance audit-ready (GxP/CSV). Leadership technique, design reviews, cadrage de POC et accompagnement des équipes. Conception de plateformes Data/IA (ingestion, stockage, processing, gouvernance, MLOps). Pilotage observabilité et FinOps. Environnement international, forte exigence sécurité et conformité.
Offre premium
Offre d'emploi
Data Engineer DBT senior
PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)
PROPULSE IT
Publiée le
Ansible
GitLab CI
Openshift
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées
Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon
Almatek
Publiée le
Big Data
6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
Mission freelance
ingénieur applicatif Talent & Performance Workday Anglais 520 e par jour
BI SOLUTIONS
Publiée le
Data Lake
Workday
2 ans
400-520 €
Île-de-France, France
ingénieur applicatif Talent & Performance Workday 520 e par jour ANGLAIS Préparer et soutenir les campagnes Talent et Performance - telles que notre suivi du développement, l'évaluation de performance de fin d'année, la campagne de définition des objectifs ou les revues de talents : Configurer des règles d'éligibilité complexes, Préparer des modèles Configurer les notifications, les textes d'aide et leurs traductions Créer des documents dans Document pour la mise en page et BIRT Mettre à jour les rapports avec le soutien d'un expert en reporting si nécessaire Mettre en œuvre des modifications de sécurité et travailler en collaboration avec l'équipe Sécurité Workday Prerequisites: Workday Talent & performance certification and experience in complex configuration (calculated fields, EIBs, migration of data using OX…) Knowledge of BIRT and document for layout would be greatly 520 e par j
Offre d'emploi
Test Data Manager Senior/Expert (H/F)
HELPLINE
Publiée le
Data management
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans le cadre de la migration d’un système central de réservation, une fonction transverse de gestion des données de test : Test Data Manager (H/F) est mise en place pour organiser et structurer les jeux de données de test, et assurer la fiabilité et la sécurité des campagnes de tests end-to-end et métiers. Missions principales Pilotage TDM : Définir la stratégie de gestion des données de test, organiser et prioriser les demandes, suivre la qualité et la disponibilité, garantir un service fiable pour les équipes et les campagnes. Catalogue et gouvernance : Maintenir un catalogue centralisé, définir les règles d’usage et de versioning, assurer traçabilité, qualité et sécurité des données. Support aux équipes et E2E : Recueillir les besoins des équipes, coordonner la configuration des données, supporter les campagnes de test et sécuriser les parcours critiques. Gestion des prestataires : Piloter les partenaires, définir le cadre opérationnel, suivre performance et qualité, coordonner activités internes et externes. Industrialisation et amélioration continue : Identifier et mettre en œuvre des leviers d’automatisation et d’outillage, réduire les délais, optimiser les processus TDM. Onboarding, documentation et communication : Définir et diffuser les processus, accompagner l’intégration des équipes, produire la documentation de référence et assurer le reporting régulier.
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Développeur FullStack (React JS / Spring Boot) - DevOps
bdevit
Publiée le
Ansible
AWS Cloud
CI/CD
36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement des équipes projets au sein des plateformes IT d'une banque de renom, vous interviendrez en tant que Développeur FullStack (React JS/SpringBoot) avec une forte sensibilité DevOps afin de contribuer au développement et à l’industrialisation d’applications bancaires critiques. Missions Principales : Participer à la conception technique et au développement d’applications web en architecture microservices ; Développer des interfaces utilisateurs modernes et performantes avec React JS (JavaScript / TypeScript) ; Concevoir et développer des APIs REST sécurisées en Spring Boot ; Assurer la qualité du code (tests unitaires, tests d’intégration, code review, clean code) ; Intégrer les applications dans les chaînes CI/CD existantes ; Conteneuriser les applications via Docker et gérer leur déploiement sous Kubernetes ; Contribuer à l’automatisation des environnements via Terraform et/ou Ansible ; Participer aux phases de recette, mise en production et support applicatif (N2/N3) ; Garantir le respect des normes de sécurité et des exigences réglementaires bancaires ; Collaborer avec les équipes DevOps, Architecture, Sécurité et Production.
Mission freelance
Expertise DataViz et DataScience
Codezys
Publiée le
Azure
CI/CD
Data science
12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
Mission freelance
Data Platform Engineer
Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD
6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Mission freelance
Tech Lead Java - AWS
Cherry Pick
Publiée le
Java
12 mois
550-600 €
Paris, France
La mission Nous recherchons un Tech Lead pour un rôle de manager de transition le temps de notre recherche en parallèle pour ce poste en interne. Tu seras rattaché à l’entité « Réseau » de la DSI, qui offre de gestion des clients à destination des différents acteurs métiers. L’entité « Réseau » est composée de 40 collaborateurs. Le Tech Lead est responsable de l’accompagnement et de la montée en compétences des équipes de développement. Ce rôle est stratégique : il combine leadership humain, expertise technique et vision transverse. Il/elle fait le lien entre les objectifs techniques, les enjeux produits et les ressources humaines de l’équipe. En tant que Tech lead, ton rôle sera de : Faciliter l’émergence d’une vision technique commune, alignée avec la stratégie DSI Manager une équipe d’une vingtaine de développeurs Animer la réflexion continue autour des pratiques de qualité et fédérer l’équipe autour de standards de développement Coordonner le pilotage de la dette : faciliter l'identification, l'évaluation, et l'intégration au backlog des sujets de dettes avec les PM/PO En tant que responsable du partage de connaissance technique, créer les conditions d’apprentissage et de montée en compétence pour tous Faciliter la coordination technique transverse Encourager l’équipe à comprendre les enjeux métier et incarner cette logique de valeur Incarner les valeurs agiles et favoriser la prise de responsabilité collective A la DSI comme au sein de l’entité « Réseau », nous sommes organisés selon cadre de travail d’agilité à l’échelle SAFe. Les équipes agiles du train sont organisées en Scrum ou en Kanban. Tu auras en charge les missions suivantes : Encadrement des équipes Animer et faire grandir une équipe de développeurs sur les différentes technologies qui seront utiles au produit et défini avec le système architecte Suivre la charge, l’organisation, la montée en compétence et l’engagement des collaborateurs Gérer les entretiens individuels, les évaluations et les plans de développement Coacher les développeurs/développeuses Participer aux recrutements de profils techniques et à l’onboarding Contribution aux projets Piloter des chantiers techniques structurants (refontes, montées de versions, amélioration des pratiques) Être force de proposition pour l’évolution des architectures applicatives Garantir la qualité, le pilotage des coûts des projets techniques et le delivery. Référent technique Valider les conceptions techniques, les choix d’architecture, les patterns et les solutions proposées Superviser la qualité du code, les processus de CI/CD, les tests et la documentation Amélioration continue Suivre les indicateurs de qualité (tests, incidents, temps de cycle, dette technique…) Favoriser la veille technologique, l’innovation, et les échanges inter-équipes Compétences techniques requises Expérience confirmée en développement. Connaissance des bonnes pratiques d’architecture applicative Maîtrise des outils de versioning, intégration continue (GitLab CI), déploiement (Git, Docker, etc.) Compréhension des environnements cloud (AWS, Azure) Intégration des outils SI avec les solutions Oracle E-Business Suite et Microsoft Dynamics CRM Compétences managériales Leadership naturel, posture d’accompagnement et sens du collectif Capacité à fédérer et faire progresser des profils techniques variés Esprit analytique, rigueur, et sens de la priorisation Excellente communication et aisance dans les échanges avec les métiers, les architectes et les PO/PM Pour nous accompagner sur ce projet, nous recherchons une personne ayant une formation supérieure en informatique (BAC+5) avec minimum 10 ans d’expérience avec : Capacité à coconstruire une vision technique commune et à lui donner vie Capacité à manager une équipe de développeurs ayant des niveaux de séniorité hétérogènes Facilité à s'approprier les workflows fonctionnels d'un système complexe Compétences techniques : Maitrise de Java, des bases de données SQL et NoSQL, de front Angular, d’architecture cloud AWS, DevOps, Conteneurisation. Une première expérience significative dans un environnement constitué de CRM et ERP serait grandement appréciée Gestion de la relation / communication avec les équipes et le management Connaissance et pratique des cadres de travail agile : Scrum / Kanban / SAFe Rigueur et organisation Sens relationnel Aisance à l’écrit comme à l’oral Capacité d’adaptation Anglais opérationnel Mais aussi être force de proposition et faire preuve de leadership seront des qualités attendues pour ce poste.
Offre d'emploi
Expert.e Sécurisation Cloud AWS et GCP F/H
METSYS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
1 an
54k-58k €
630-650 €
Yvelines, France
METSYS est un intégrateur de solutions Cloud, Microsoft et Cybersécurité. Pour un de nos clients grands-comptes, de renommée nationale dans son secteur d'activité, nous recherchons un.e Expert.e Sécurisation Cloud AWS et GCP (F/H) pour un démarrage le 23 mars 2026 dans les Yvelines (78). Vous travaillerez en lien étroit avec les équipes Cyber et les équipes de notre Client en charge des offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Plus globalement, votre rôle sera d’assister notre Client sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : -Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics ; -Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences ; -Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse ; -Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place ; -Coordonner les parties prenantes (dev, secops, infra, référents sécurité) ; -Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance ; -Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : -Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets ; -Contextualiser les vulnérabilités découvertes selon l’environnement de notre Client ; -La participation et le soutien technique à la résolution des vulnérabilités ; -L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics ; -L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement ; -Former les développeurs et data scientists aux bonnes pratiques de sécurité. Participer à la vie de l’équipe sécurité : -Analyser les risques liés aux projets ; -Rédiger des expressions de besoins de sécurité ; -Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes ; -Coopérer avec les pairs et la communauté de la cybersécurité au sein de notre Client pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Cette liste n'est pas limitative.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5105 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois