L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 560 résultats.
Offre d'emploi
DevOps – Migration Legacy vers GCP (H/F)
Publiée le
Automatisation
CI/CD
Google Cloud Platform (GCP)
1 an
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Date de démarrage : Début janvier 2026 Durée : Mission longue (contexte critique) Lieu : Lille (59) Contexte de la mission Notre client recherche un Expert DevOps (H/F) pour accompagner une migration stratégique d’applications Legacy (JBoss/Java) vers Google Cloud Platform (GCP) . Cette mission s’inscrit dans un projet de refonte complète avec une forte composante cloud-native et modernisation des environnements . Vos responsabilités Participer à la migration des produits Legacy vers GCP. Mettre en place et optimiser les pipelines CI/CD. Déployer et administrer des environnements Kubernetes et Terraform . Collaborer avec les équipes de développement sur des stacks variées : Full Stack classique : Java, React, Spring (incluant des versions anciennes de Java). PHP vanilla sur certains produits. Garantir la sécurité , la scalabilité et la performance des solutions déployées. Profil recherché Expertise DevOps confirmée avec un périmètre large. Maîtrise avancée de GCP et des services cloud dans un contexte de refonte. Solide expérience sur Kubernetes et Terraform . Connaissance des environnements JBoss/Java Legacy et des migrations vers le cloud. Capacité à intervenir sur des stacks variées (Java, React, Spring, PHP). Compétences techniques clés GCP (Cloud-native, migration, architecture) Kubernetes, Terraform Java (versions Legacy et modernes), React, Spring PHP vanilla CI/CD, automatisation, observabilité
Offre d'emploi
Ingénieur Réseau Senior Switch Nokia / Alcatel (Pré-prod + Terrain)
Publiée le
Alcatel
Routing & Switching (R&S)
3 ans
52k-63k €
450-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement d’une plateforme réseau critique, nous recherchons un Ingénieur Réseau Senior spécialisé sur les switches Nokia / Alcatel , capable d’intervenir de manière autonome sur des sujets pré-production + terrain . L’objectif est d’accélérer la mise en place et la sécurisation des configurations, tout en cadrant l’activité avec des process robustes et une documentation claire . Missions principales Installation / configuration / validation de switches Nokia ou Alcatel Interventions pré-prod + vérifications sur site (terrain) Analyse de l’architecture existante : compréhension, contrôle, correction si nécessaire Application stricte des procédures et capacité à les améliorer / structurer Rédaction de documents techniques : cahiers de tests procédures d’exploitation comptes rendus de vérifications / actions menées Coordination et communication avec les équipes internes (échanges réguliers)
Mission freelance
Senior DataOps / DevOps AWS – Terraform
Publiée le
AWS Cloud
Databricks
Terraform
1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Mission freelance
Senior SRE / DevOps GCP
Publiée le
3 mois
600 €
Suresnes, Île-de-France
Vous trouverez ci-dessous le descriptif de la mission : T&M Service context DevOps Engineer services within the Technology & Operations team. Deployment, evolution, and maintenance of our cloud infrastructures and production tools. collaboration with our teams and partners to improve and secure our software development lifecycle (web and mobile applications). Service description Cloud Infrastructure Deployment, Management & Monitoring : Contribute to the deployment and management of our Cloud infrastructure - UAT, Preprod, and Production Monitor system and application performance Ensure management and optimization of cloud infrastructure Drive initiatives, improvements, and interventions Ensure implementations comply with FinOps best practices Automation & Integration : Master the group's DevOps toolbox Design and maintain automation scripts for deployments Ensure continuous integration and continuous delivery (CI/CD) Cross-Team Collaboration : Work with development teams and partners to understand and implement their infrastructure needs Engage with business teams from the definition phase of new products and services to anticipate infrastructure requirements Continuous Improvement : Propose and implement improvements to increase operational efficiency and optimizecosts Maintain system and process documentation Incident Management & Support : Respond to incidents and technical issues Act as a point of contact with relevant partners Participate in on-call duty according to a rotation schedule Expectation Google Cloud Professional certification (Cloud Architect, DevOps Engineer, or equivalent) or Kubernetes (CKAD, etc.) is a plus At least 5 years of experience in a DevOps, SRE, or Public Cloud Engineer role Minimum 3 years of experience in production management: incidents, monitoring, changes, on-call duties Strong expertise in managing critical incidents and problem-solving, including communication and post-mortem analysis Proven experience managing cloud application infrastructures Strong communication and cross-team collaboration skills Autonomy and proactive problem-solving attitude Strong customer service and quality orientation Analytical and problem-solving skills, with rigor and ability to prioritize
Offre d'emploi
Responsable de projets digitalisation/industrie 4.0 (H/F)
Publiée le
70k-110k €
Chessy, Île-de-France
Télétravail 100%
Rattaché(e) à l'équipe de direction, vous jouez un rôle central dans la convergence IT / OT au sein des usines de votre périmètre. À ce titre, vos missions principales sont les suivantes : - Collaborer étroitement avec les directeurs d'usine, les ingénieurs automatismes, ainsi que les équipes IT et OT corporate afin d'identifier les besoins liés aux projets Industrie 4.0 (SCADA, MES, et autres systèmes digitalisés), - Piloter les partenaires externes (fournisseurs, intégrateurs systèmes) dans la rédaction des spécifications techniques et documents de conception, - Superviser l'installation et la mise en service des nouveaux systèmes industriels, - Valider la conformité des livrables selon les standards qualité et d'exploitation du groupe, - Garantir le respect de l'architecture IT-OT groupe au niveau régional et l'adapter aux contraintes locales si nécessaire, - Mettre à jour et maintenir la feuille de route de digitalisation de chaque site, en cohérence avec la stratégie globale, - Accompagner les équipes locales dans l'application des règles de gouvernance et de cybersécurité OT, - Définir et déployer les stratégies de supervision, d'administration et de sécurisation des infrastructures OT (serveurs, postes, réseaux, automates, SCADA...), - Participer à des projets innovants autour de l'IoT, de l'IA, de la vision industrielle, de la robotique et du cloud, - Piloter les investissements (CAPEX) et la planification budgétaire des projets Industrie 4.0, - Présenter les propositions financières, suivis de projets et résultats auprès de la direction pour validation.
Offre d'emploi
Data Engineer / GenAI Engineer (Senior)
Publiée le
DevOps
Docker
Mongodb
1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
Mission freelance
Expert Automatisation / HCM & HPOO (H/F)
Publiée le
Ansible
Linux
Windows Server
12 mois
400-550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une Expert Automatisation / HCM & HPOO (H/F) Description de la mission : Notre client du secteur bancaire est à la recherche de son futur Ingénieur Cloud DevOps en freelance ! Au sein de l'équipe Natif Data Cloud qui conçoit et opère les outils et services de l’environnement du Natif, vous serez amené à administrer et maintenir en condition opérationnelle les solutions de gestion de l’automatisation des plateformes (Cloud Management Platform) basées sur les outils OpenText HCM et Opération Orchestration (OO). La mission comprend le volet opérationnel de la solution pour lequel une bonne appréciation du sens du service et de l’approche “production” sont primordiales. Description des tâches : - Mise en œuvre opérationnelle et techniques des produits cloud management platform - Participation au Daily meeting animé par le Squad Lead - Gestion des incidents et problèmes, accompagnement et support des utilisateurs de la plateforme - Reporting Déplacements : Occasionnels Participer aux astreintes si nécessaire Être force de proposition dans un contexte d’amélioration continue Travailler en équipe avec la Squad Rendre compte des difficultés auxquelles il est confronté et proposer des solutions pour les résoudre
Mission freelance
Chef de projet développeur / Expert Dynatrace (N3)
Publiée le
.NET
API
AWS Cloud
12 mois
520-580 €
75009, Paris, Île-de-France
Télétravail partiel
Dans le cadre du renforcement d’un SI critique à forte exposition opérationnelle , le client recherche un Chef de projet développeur – Expert Dynatrace (consultant N3) pour assurer l’ administration, l’optimisation et l’évolution de la plateforme de monitoring applicatif et infrastructure . Le poste est au cœur des enjeux de performance, disponibilité et fiabilité du SI , en interaction étroite avec les équipes exploitation, développement et infrastructure . Vos missions · Administrer la plateforme Dynatrace : o Installation, configuration et mise à jour des agents o Gestion des utilisateurs, rôles, alertes, seuils et rapports automatisés · Superviser et analyser la performance applicative et infrastructure : o Applications, serveurs, bases de données, conteneurs o Détection proactive des anomalies et incidents de performance · Développer et maintenir des plugins Dynatrace (principalement en Python ) · Concevoir et optimiser les tableaux de bord et indicateurs clés · Assister les équipes de développement et d’exploitation sur les incidents de performance · Former et accompagner les utilisateurs internes sur l’usage de Dynatrace · Contribuer à l’ amélioration continue des pratiques de monitoring et de performance · Participer aux projets de migration ou de déploiement d’infrastructures cloud ou on-premise · Produire un reporting régulier et formuler des recommandations d’amélioration Profil recherché – critères clés · Consultant Niveau 3 – Chef de projet développeur / expert monitoring · 3 à 5 ans minimum d’expérience en administration IT et monitoring applicatif · Maîtrise avancée de Dynatrace : o Full-stack monitoring o Cloud monitoring o Synthetic monitoring · Solide expérience en développement : o Python (essentiel – min. 4 ans) o Node.js (essentiel – min. 4 ans) · Très bonne connaissance des environnements : o Java, .NET, Node.js o Bases de données, serveurs, conteneurs o Linux (terminal, scripting Bash) · Notions de base réseau : HTTP, SSH, FTP · Forte capacité d’analyse et de résolution de problématiques de performance complexes · Autonomie, esprit d’équipe, force de proposition Compétences appréciées · Connaissance des environnements cloud AWS / Azure / GCP · Administration Jira / Confluence · Connaissance de Dynatrace et/ou Datadog · Développement de plugins Jira / Confluence · Anglais professionnel Modalités · Durée : 12 mois · Charge : 218 jours · Localisation : Paris (présence sur site requise – télétravail possible jusqu’à 2 jours/semaine) · Astreintes et interventions possibles selon les besoins de production · Démarrage souhaité : 16/02/2026 · TJM : non précisé
Offre d'emploi
Ingénieur Infrastructure & Stockage Linux (H/F)
Publiée le
Infrastructure
Linux
Stockage
35k-40k €
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un ingénieur infrastructure polyvalent, avec une forte expertise en stockage, capable d'intervenir en situation critique tout en participant aux projets techniques du quotidien. Votre rôle - Vous intervenez principalement sur les environnements de stockage NetApp et PureStorage, notamment lors d'incidents majeurs ou de situations de crise. - Lorsque l'activité stockage est plus calme, vous contribuez à d'autres périmètres techniques : Linux, automatisation, DevOps. - Vous travaillez en étroite collaboration avec les équipes Linux, Réseau et Cloud. Vos missions - Administrer, exploiter et maintenir les infrastructures de stockage NetApp & PureStorage - Assurer le support niveau 2/3 et intervenir sur les incidents critiques - Participer à l'automatisation et à l'industrialisation des opérations (scripts, Ansible, CI/CD) - Contribuer à la supervision, au suivi et à la documentation des infrastructures - Participer à l'amélioration continue et à la veille technologique - Collaborer avec les équipes techniques pour résoudre les incidents complexes Environnement technique - Stockage : NetApp, PureStorage - Systèmes : Linux (RedHat, CentOS, Ubuntu…) - Scripting : Bash, Shell, Python - DevOps / Automatisation : Ansible, GitLab CI/CD - Supervision : Grafana, Prometheus
Offre d'emploi
Développeur Java et Python (H/F)
Publiée le
36 mois
40k-45k €
360-400 €
Rennes, Bretagne
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 Développeur Java ET Python 📍Lieu : Rennes 🏠 Télétravail : 2 jours 📝Contrat : CDI 👉 Contexte client : Un acteur majeur du digital modernise ses services de recherche et renforce son équipe back-end dédiée à la recherche utilisateur . La mission vise à améliorer la pertinence des résultats grâce à l’optimisation des algorithmes de recherche et à l’intégration de solutions d’ IA générative et de NLP , dans un environnement agile. Tu auras pour missions de : Développer et faire évoluer les composants back office du moteur de recherche Intégrer des modèles d’IA pour améliorer la pertinence des résultats Garantir qualité, performance et sécurité du code Collaborer avec les équipes internes Rédiger la documentation et mettre en place des tests automatisés Contribuer ponctuellement aux outils IHM en Vue.js
Mission freelance
Développeur Web Python Cloud AWS (H/F)
Publiée le
Python
2 ans
370-400 €
Lyon, Auvergne-Rhône-Alpes
Projet : Fonctionnement : 2 jours sur site à Lyon + 3 jours de télétravail Descriptif de la mission : Nous recherchons un profil expérimenté pour rejoindre une équipe agile dans le cadre du développement d’une application permettant d’échanger des données métiers de manière sécurisée via une plateforme en utilisant des API et le cloud. Cette mission repose sur des pratiques agiles à l’échelle (SAFe). Le candidat intégrera une équipe déjà formée, composée de 4 développeurs back-end, 4 développeurs front-end, un Product Owner (PPO) et une Scrum Master. Deux jours de présence sur site chez le client sont obligatoires chaque semaine, afin de favoriser la collaboration et la dynamique d’équipe. Le démarrage de la mission est prévu pour décembre ou janvier 2026 Compétences attendues : Développement et maintenance d’une application en Python Rédaction des spécifications techniques (utiliser Mermaid pour la modélisation serait un plus) Conception et implémentation de fonctionnalités dans une architecture Serverless AWS Réalisation des tests techniques et unitaires Analyse du cahier des charges et suivi des user stories via Jira . Rédaction et mise à jour de la documentation technique sur Confluence . Suivi de l’accostage des partenaires à notre solution et répondre à leurs demandes. Soft Skills recherchés : Autonomie : capacité à travailler efficacement sans supervision constante. Force de proposition : être moteur dans l’amélioration continue du projet et prendre en main des chantiers transverses Adaptabilité : aisance avec les outils et les environnements évolutifs. Esprit d’équipe : expérience confirmée dans des contextes collaboratifs agiles. Communication claire et structurée : savoir s’exprimer avec précision et transmettre les bons messages. Rigueur et organisation : un profil carré, capable de respecter les standards et les délais. Cette mission est idéale pour un développeur confirmé (4 années d’expériences minimum) , maîtrisant les environnements cloud AWS , les architectures serverless , et souhaitant s’investir dans un projet à fort impact.
Mission freelance
Consultant Citrix - Audit / Décommissionnement
Publiée le
Audit
Citrix
Workplace
3 mois
400-550 €
La Défense, Île-de-France
Télétravail partiel
Un consultant en audit Citrix , orientée justification d’usage vs décommissionnement : Fiche de mission – Consultant Audit Citrix Contexte de la mission Dans le cadre de l’optimisation de son environnement poste de travail et applicatif, le client souhaite évaluer la pertinence du maintien de la solution Citrix . L’objectif est de justifier l’usage actuel de Citrix ou, le cas échéant, d’identifier les conditions d’un décommissionnement partiel ou total , en particulier au regard des usages applicatifs. Périmètre et activités principales 1. Analyse de l’existant Citrix Inventaire de l’architecture Citrix (version, composants, modes d’accès) Typologie des usages (applications publiées, bureaux virtuels, populations concernées) Analyse des volumes et fréquences d’usage 2. Cartographie applicative Liste exhaustive des applications utilisées via Citrix Identification des utilisateurs et des usages métiers Classification des applications (legacy, client lourd, web, SaaS…) 3. Analyse de dépendance à Citrix Évaluation de la faisabilité d’un usage hors Citrix : Installation locale Accès web / SaaS Alternatives techniques existantes Identification des contraintes techniques, fonctionnelles et de sécurité 4. Scénarios et recommandations Scénarios possibles : Maintien de Citrix (justification claire) Rationalisation (réduction du périmètre) Décommissionnement progressif ou total Identification des risques, impacts et prérequis Livrables attendus Rapport d’audit synthétique , incluant : État des lieux Citrix Liste des applications avec niveau de dépendance à Citrix Analyse d’éligibilité au retrait de Citrix Recommandations et scénarios Tableau de synthèse applicatif (utilisation Citrix : Oui / Non / À confirmer)
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
Expert / Référent Technique – Dataiku & Braincube (H/F)
Publiée le
AWS Cloud
Dataiku
6 mois
40k-45k €
500-650 €
92240, Malakoff, Île-de-France
Dans le cadre de ses activités Data & IA, notre client recherche un(e) Expert / Référent Technique Dataiku & Braincube afin d’assurer le pilotage, l’exploitation et l’évolution de ses plateformes Data à l’échelle du Groupe. Vous interviendrez comme référent technique et architectural sur les plateformes Dataiku et Braincube, en environnement hybride Cloud / On-Premise, avec un rôle clé dans la gouvernance, la performance opérationnelle, la sécurité et l’accompagnement des équipes. Vous serez responsable du bon fonctionnement du service, de sa résilience, de son alignement avec les standards de cybersécurité SAFRAN et de la construction de la roadmap d’évolution, en coordination avec les équipes internes, les prestataires et les équipes basées en Inde.
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Mission freelance
Tech Lead CIAM / SAP Customer Data Cloud Gigya, OIDC, OAuth2, SAML, AWS
Publiée le
AWS Cloud
oauth2
saml
6 mois
550-680 €
Île-de-France, France
Télétravail partiel
Le client s’appuie sur la solution SAP Customer Data Cloud (Gigya) pour la gestion de l’authentification et des identités clients B2B et B2C , avec notamment : Une bassine B2C – TE Connect (≈ XX applications OIDC) Une bassine B2B – TE ConnectPro (≈ XX applications OIDC) Des bassines en marque blanche pour des cas spécifiques Les objectifs stratégiques du programme sont : Une expérience SSO harmonisée , inspirée de FranceConnect Une conformité stricte RGPD et cybersécurité Une scalabilité de la plateforme (objectif 13M d’utilisateurs à horizon 2028 ) La personnalisation des parcours utilisateurs sans impacter le master site
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5560 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois