L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 478 résultats.
Mission freelance
Cloud Infrastructure Engineer (terraform, kubernetes, Azure) H/F
Pickmeup
Publiée le
Ansible
Azure
Kubernetes
2 ans
400-600 €
Paris, France
Le Projet Rejoignez l'élite de la Tech publique au sein d'une structure d'envergure nationale dédiée à l'innovation par la donnée. La mission est capitale : concevoir, sécuriser et maintenir la plateforme technologique qui centralise les données de santé pour faire avancer la recherche médicale en France. 🏥📊 Dans un environnement Agile et ultra-sécurisé, vous intégrez l'équipe Secure Process Environment . Votre terrain de jeu ? Une infrastructure complexe, innovante et 100% automatisée. 🛠️ Votre Stack Technique Infrastructure : Azure, Terraform, Terragrunt, Packer, Ansible. Orchestration : Kubernetes (K8s), Helm. Automation/Scripting : Bash, Python. Outils : Gitlab, Keycloak, Nexus, Jupyter, Spark, PostgreSQL. 🎯 Vos Missions : "Design, Automate & Secure" Infrastructure-as-Code (45%) : Développer et maintenir une infrastructure 100% terraformée sous Azure à grande échelle. Kubernetes & Apps (30%) : Industrialiser le déploiement des composants transverses (Ingress, Keycloak) et des outils data (Jupyter, Spark) via Helm & Docker. Scripting & Outillage (25%) : Créer des utilitaires de check, de déploiement et collaborer avec les Data Engineers pour répondre aux besoins des utilisateurs finaux. Sécurité & Architecture : Participer activement à l'homologation de la plateforme et à l'évolution de l'architecture distribuée. Culture Ops : Documenter vos succès pour un partage de connaissance fluide au sein de l'équipe (12 développeurs passionnés).
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Offre d'emploi
OT Cybersecurity Engineer - Project Manager
INFOGENE
Publiée le
Cybersécurité
1 an
50k-60k €
500-560 €
Île-de-France, France
DANS NOS PROJETS INDUSTRIELS • Gestion des fournisseurs : Rédaction de la documentation technique et non technique des projets (procédures, spécifications techniques, scénarios de test) Sélection des fournisseurs de produits OT Gestion des écarts par rapport aux exigences • Activités d’expert en cybersécurité : Conseil technique auprès des fournisseurs de produits OT et autres parties prenantes (comme les autres disciplines d’ingénierie) Ateliers d’analyse de risques selon la série de normes ISA/IEC 62443 Conception d’architectures OT selon la série de normes ISA/IEC 62443 (incluant Zones & Conduits) Revue des architectures et inventaires d’actifs proposés par les fournisseurs de produits OT Sessions de tests techniques (Factory Acceptance Tests, Site Acceptance Tests) • Gestion des parties prenantes avec un focus technique : Représentants des autres disciplines d’ingénierie (notamment : instrumentation, télécom, équipements tournants, électricité) Représentants des fournisseurs de produits OT Représentants des clients Canaux de communication formels : gestion documentaire par l’équipe elle‑même ou par les fournisseurs OT (y compris via des systèmes électroniques de gestion documentaire) ACTIVITÉS PONCTUELLES • Selon les demandes du Responsable Sécurité de l’Information du projet : audit, gestion d’incident, formation des fournisseurs OT sur un site de construction, etc.
Offre d'emploi
Senior DevOps / Platform Engineer
KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD
3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Mission freelance
Freelance Staff Backend Engineer (Ruby)
Tenth Revolution Group
Publiée le
Kubernetes
PostgreSQL
Prometheus
1 an
France
Vous rejoignez une FinTech en forte croissance (+50% business/an) spécialisée dans la lutte contre la fraude aux virements, protégeant plus de 400 grandes entreprises dans le monde. L'IA est au cœur de la stratégie produit et engineering : les équipes utilisent quotidiennement des outils IA (Claude Code, Cursor) et intègrent des LLMs dans le produit. Vous intégrez la squad Core Evaluation, en charge du moteur de détection de fraude — l'actif le plus critique de la plateforme. Missions Architecturer et piloter la vision technique des systèmes distribués à grande échelle au cœur de la plateforme, avec un focus sur les workflows d'évaluation complexes Conduire des initiatives techniques cross-fonctionnelles de bout en bout (conception → production), en assurant l'alignement avec la stratégie produit et les besoins clients Participer à la construction de la roadmap technique avec le Product et l'Engineering leadership : identification des défis clés, proposition de solutions innovantes Piloter l'intégration de solutions LLM pour transformer le moteur de détection et résoudre des problèmes métier complexes Assurer le mentoring technique des ingénieurs de la squad et au-delà : bonnes pratiques d'architecture, design, et pensée stratégique Promouvoir et implémenter les meilleures pratiques en observabilité, scalabilité et performance des systèmes core
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
API
Python
12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
senior staff engineer - Plateforme - Marseille - H/F
EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python
80k-100k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
Mission freelance
Software Engineer Lead Expert
Intuition IT Solutions Ltd.
Publiée le
API
Informatica
UNIX
8 mois
400-520 €
Paris, France
Contribution à la mise en œuvre des solutions cloud Informatica , migration des applications PowerCenter sur site et Talend ; la conception, les tests et la documentation de la nouvelle solution ; Soutien aux équipes de projet et aux entités en France ou à proximité/offshore (Europe, Asie, Amérique) ; Appliquer les meilleures pratiques de développement dans la livraison et soutenir les autres membres de l'équipe de développement ; Veiller au respect des directives de sécurité. Technologies: Informatica IDMC CDI, Oracle, SQL server.
Mission freelance
Software Engineer Fullstack Python / Vue.js – Secteur Énergie
Tenth Revolution Group
Publiée le
Angular
Ansible
Confluence
12 mois
310-450 €
Saint-Denis, Île-de-France
📝 Contexte de la mission Au sein de la cellule DATA d'un grand compte du secteur de l'énergie, vous rejoignez le projet PLANUC (Plan Nucléaire). L’objectif est d'accompagner la refonte globale d’un module critique de l’application et de mettre en œuvre une nouvelle architecture logicielle moderne et évolutive. 🛠 Missions réalisées Intégré(e) à une équipe d'experts, vos responsabilités incluent : Architecture & Conception : Participation aux choix technologiques et à la définition de la nouvelle architecture en collaboration avec les architectes référents. Développement Fullstack : Conception et développement de l'application (Back-end Python / Front-end moderne). Expertise technique : Rôle de conseil auprès des autres développeurs et réalisation de revues de code. Support & Ops : Appui technique sur les middlewares, les bases de données et interventions serveurs (Linux, scripts Bash). Collaboration Produit : Échanges avec le Product Owner pour garantir une conception technico-fonctionnelle adaptée aux utilisateurs finaux (connaissances Python). Culture DevOps : Mise en place et optimisation des pipelines de déploiement. 💻 Environnement technique Langages : Python (Expertise POO, Pandas, manipulation NetCDF, JSON). Front-end : Vue.js ou Angular. DevOps / CI-CD : GitLab, GitLab CI, Docker, Ansible, Maven, Artifactory. Qualité & Sécurité : SonarQube, Checkmarx. Outils : Jira, Confluence. Système : Linux (Scripts Bash). 👤 Profil recherché Expérience : Profil confirmé avec + de 3 ans d'expérience minimum en développement Fullstack. Expertise Python : Une maîtrise avancée de la manipulation de données (Pandas, JSON) est impérative. Autonomie technique : Capacité à prendre des décisions architecturales et à conseiller une équipe. Soft Skills : Excellente communication pour échanger avec le métier et rigueur dans l'application des bonnes pratiques de développement.
Mission freelance
250762/Data Engineer TERADATA ET DATAVIZ
WorldWide People
Publiée le
Data visualisation
Teradata
1 mois
400 €
Paris, France
Data Engineer TERADATA ET DATAVIZ Project context Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Goals and deliverables Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Mission freelance
Platform Engineer
Sapiens Group
Publiée le
Linux
Python
Red Hat
10 mois
450-620 €
Nanterre, Île-de-France
Descriptif du poste Pour ce projet d'infrastructure, la direction technique recherche un Platform Engineer en prestation externe pour l'intégration et l'administration des offres. La prestation s'effectuera au sein de la Platform Engineering dans la tribe « Automatisation & observabilité ». Objectifs de la prestation Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d'un ou plusieurs langages de programmation, notamment Python Accompagner les clients internes « ME » projet sur la livraison de leurs applications dans le cloud Être support des « ME » en cas de bug ou anomalie sur leur livraison Assurer les installations des logiciels fournis par les éditeurs Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) Installer et paramétrer le progiciel et l'adapter aux exigences du client Automatiser le provisioning et la configuration des offres Platform Engineering Développer des playbooks Ansible et des modules Terraform Installation et Intégration des produits d'observabilité (Grafana, LOKI, Instana, ELK, Prometheus) Automatiser les tests et la validation technique Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et assurer la cohabitation de l'ensemble des composants techniques et applicatifs des environnements de tests Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l'environnement technique Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications Acquérir une maîtrise des offres d'infrastructures du cloud provider pertinentes sur ce périmètre Rédiger les scénarios de test & identification des outils de benchmarking Communiquer les résultats du benchmark et présentation du rapport d'analyse Participer au chantier de définition du modèle opérationnel Maîtriser les standards de l'offre de service avec des cas d'usage à destination des fabrications Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure Préparation et présentation des résultats de performance S'inscrire dans une démarche d'amélioration continue par des feedbacks au sein de l'équipe d'accompagnement projets Être garant du modèle d'intégration du socle de conteneurisation avec les systèmes d'échange, et d'une manière générale l'ensemble de l'écosystème Rédiger la documentation technique Réaliser les tests associés au paramétrage : tests unitaires, tests d'intégration… Participer aux cérémonies/réunions projet Suivre et réaliser les actions projets qui lui sont affectées Participer à l'identification des risques projet Participer aux comités de pilotage
Mission freelance
Un IT Quants / DevOps Engineer,
Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Mission freelance
LILLE - Security Engineer - Network Cloud/Onprem & Cloud Infrastructure
CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
IAM
LAN
3 mois
400-620 €
Lille, Hauts-de-France
Contexte de la mission En tant qu'acteur majeur de la transformation numérique, notre Groupe a pour ambition de construire des fondations technologiques solides et innovantes. La Cloud Platform Engineering (CPE) , initiative collaborative lancée en 2020, est le moteur de cette transformation. La CPE est une entité transverse à l’ensemble de nos domaines d'activité et de nos implantations internationales. Elle regroupe des experts dédiés à l'expérience développeur, à la stabilité, à la scalabilité, aux réseaux, à l'observabilité et au FinOps. Nos objectifs : Rationaliser le catalogue technique au sein du groupe. Fournir des services "clés en main" permettant aux équipes applicatives de se concentrer sur la création de valeur métier. Mutualiser les compétences pour favoriser la mobilité interne et l'expertise technique approfondie. Aujourd’hui, la CPE est un domaine de près de 200 collaborateurs en pleine croissance. La Sécurité de l’Information étant un pilier stratégique de notre développement, nous recherchons un(e) : Cloud Security Engineer (H/F) Objectifs et livrables En collaboration avec le Security Officer, l'équipe Sécurité globale et les experts de la CPE, vos missions seront les suivantes : Vision & Stratégie : Définir la stratégie de sécurité réseau à moyen et long terme pour l'ensemble du Groupe. Architecture : Co-construire des solutions avec les architectes pour garantir l'intégration native des exigences de sécurité. Gouvernance : Animer la définition et la communication des politiques de sécurité. Gestion des Risques : Identifier les risques sur votre périmètre et piloter leur traitement avec les parties prenantes. Pilotage : Mettre en œuvre et suivre les indicateurs de sécurité (KPIs) pour offrir une visibilité globale. Roadmap : Collaborer avec les Product Owners pour intégrer les enjeux de sécurité dans les feuilles de route produits. Accompagnement : Soutenir les équipes dans la mise en œuvre opérationnelle des actions de sécurisation. Résilience : Garantir la robustesse des produits réseaux en cohérence avec les enjeux métiers. Gestion d'incidents : Analyser et piloter la résolution des incidents de sécurité en collaboration avec les acteurs concernés. Culture Sécurité : Sensibiliser les équipes aux enjeux de risque et de conformité au sein de votre Business Unit. Veille : Assurer une veille technologique constante pour identifier les menaces et proposer des solutions innovantes. Compétences recherchées Domaine de compétenceNiveau attenduIAM Cloud (Portails services, Account factories, Identités users/workload, FinOps)Avancé SI Interne (LAN/WLAN/NAC, SDWAN/Backbones, DNS)Expert Infrastructure (Compute, VM, Kubernetes, Stockage, PaaS, Secrets, Monitoring, APIs)Avancé Accès Distant & Privilèges (PAM, VPN)Confirmé Publication d’application (Cloud Proxy, WAF, Filtering, DNS, Certificats)Expert
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
478 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois