Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 475 résultats.
CDI

Offre d'emploi
Data Scientist expérimenté (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Ocaml

46k-51k €
Massy, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance

Offre d'alternance
Alternance - Data Engineer H/F/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD

Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist X/ F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git

Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps / SRE

OBJECTWARE
Publiée le
Kubernetes
Linux

3 ans
Île-de-France, France
La mission s’inscrit dans une approche produit , avec une forte orientation automatisation , DevOps , AIOps / Digital AI et supervision End-to-End , notamment via Dynatrace. Missions principalesContribution Produit & Architecture Participation active aux rituels des équipes produit (Agile/DevOps) Préparation des projets : design et préparation d’architectures , orientation des choix selon le catalogue Groupe Rôle de point relais technique entre la DSI, la Production et les équipes produit Participation aux revues d’architecture , rédaction des documents d’architecture et planification associée Facilitateur et garant des bonnes pratiques d’architecture Cloud & OPS Ingénierie OPS & Production Réalisation des gestes techniques courants : mises en œuvre applicatives, incidents, évolutions et projets Contribution au maintien en conditions opérationnelles (MCO) des plateformes Support N3 , analyse approfondie et investigation d’incidents complexes Participation à la vie applicative en étant force de proposition (incidents, problèmes, amélioration continue) Automatisation, Toolchain & Digital AI Contribution aux chantiers transverses : automatisation, modèles d’organisation DevOps, outillage Point d’entrée technique sur les toolchains Groupe Maintien et évolution de la supervision applicative End-to-End (Dynatrace, Digital AI) Réalisation de retours d’expérience (REX) , présentation et partage au sein des équipes Documentation & Coordination Rédaction de procédures, documentations et standards Accompagnement, reporting et coordination directe avec Chefs de Projet (CP) et Product Owners (PO) Collaboration internationale (notamment avec l’Inde) et mise à disposition de procédures adaptées Environnement technique (non exhaustif) Cloud & Conteneurs : Kubernetes, OpenShift, Docker, Helm Automatisation & CI/CD : Terraform, Jenkins, GitLab CI, Ansible Observabilité : Dynatrace, Digital AI, Elasticsearch Bases de données (niveau avancé attendu) : Oracle (ExaCC, Exadata) PostgreSQL Systèmes & Middleware : Linux, WAS Scripting : Shell, Python Outillage Production : ordonnanceurs, transferts de fichiers, outils de ticketing
CDI

Offre d'emploi
Ingénieur(e) DevOps Cloud expérimenté(e)

ANDEMA
Publiée le
AWS Cloud
Azure
Terraform

48k-54k €
Chambéry, Auvergne-Rhône-Alpes
Nous recherchons un(e) Ingénieur DevOps Cloud Senior pour renforcer l'équipe Cloud de l'un de nos clients. L’objectif est de poser la gouvernance des environnements Public Cloud , d’accompagner techniquement les collaborateurs et de contribuer à la mise en place de standards et bonnes pratiques pour les projets cloud sur Azure et AWS. Vous rejoindrez une équipe d'une vingtaine de personnes réparties sur trois périmètres Public Cloud, avec un rôle transversal et stratégique, garantissant la cohérence technique et opérationnelle des environnements cloud et hybrides. 🎯 Missions principales1️⃣ Gouvernance Cloud Définir et maintenir les standards et règles d’usage pour les Landing Zones Azure et AWS : RBAC, policies, tagging, compliance Sécurité et conformité (ISO, RGPD, SOC2) Mettre en place et administrer les mécanismes de contrôle (Azure Policy, AWS Config, Service Control Policies). Garantir la cohérence des environnements et la conformité aux bonnes pratiques cloud. 2️⃣ Intégration On-Prem & Hybrid Comprendre les contraintes des environnements existants (réseau, sécurité, containers, virtualisation). Assurer l’interopérabilité entre Cloud et On-Prem. Contribuer aux projets hybrides Cloud + Datacenter et à la gouvernance des workloads Kubernetes. Participer aux patterns de migration et à l’optimisation des architectures hybrides. 3️⃣ Automatisation & Infrastructure as Code Maintenir et faire évoluer les scripts Terraform pour la création et la configuration des Landing Zones. Automatiser les contrôles de conformité et les déploiements cloud. Optimiser les pipelines CI/CD et améliorer les processus DevOps. 4️⃣ FinOps & Optimisation Participer au suivi des coûts et à l’optimisation des ressources cloud. Mettre en place des alertes et reporting pour les usages cloud. Contribuer à la définition des budgets et à la rationalisation des services Cloud.
CDI

Offre d'emploi
Ingénieur DevOps Kafka Streaming - F/H

AVANISTA
Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Ingénieur DevOps Kafka streaming au sein de nos équipes pour l'un de nos clients. Le contexte ? Le pôle technologique CCXP conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du Client En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production Plus particulièrement vous intégrerez la squad Streaming qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka (Confluence) dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vos missions : - Mise en oeuvre opérationnelle et techniques de la plateforme Streaming - Industrialiser et automatiser les déploiements avec Ansible - Apporter une expertise technique aux utilisateurs de la plateforme - Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) - Participer à la définition des architectures des futures briques de la plateforme Streaming - Développer des prototypes en lien avec les cas d'usages des entités - Démontrer la valeur des offres Data auprès des entités - Participer au Daily meeting animé par le Squad Lead - Participer à l'ensemble des rituels agiles de la Squad (Rétro, Démos, Pi Planning) - Participer aux réunions de co-construction de la roadmap et de la mise en oeuvre de la roadmap sous la gestion du product owner Data et du responsable de la Squad dont il dépend - Prendre des éléments de la backlog qui ont été formalisée par le Squad Lead et mettre en oeuvre les éléments de la backlog - Rendre compte des difficultés auxquelles il est confronté et proposer des solutions pour les résoudre - Collaborer en équipe avec les membres de la Squad et son Squad Lead - Être le lead sur un produit technique au sein de cette Squad - Participer à l'élaboration des formations, WebTech et Démos aux référents Clusters et Entités qui consomment ou pourraient consommer les produits - Participer aux astreintes technique de la Squad Streaming messaging kafka DevOps
Freelance

Mission freelance
Data Scientist

Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python

5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Freelance

Mission freelance
Collibra Senior Support & Configuration

Nicholson SAS
Publiée le
AWS Cloud
Collibra
Databricks

3 mois
550 €
Nantes, Pays de la Loire
Missions : Assurer le support technique de niveau 3, la configuration et l'administration de la plateforme Collibra. Le rôle couvre la gestion des métamodèles, la conception et l'optimisation des flux de travail, l'intégration avec les systèmes internes ainsi que l'accompagnement des entités dans leur intégration et leur adoption de la plateforme. Administration avancée de la plateforme : Gérez les utilisateurs, les rôles, les groupes, les autorisations et les domaines. Maintenir et faire évoluer le métamodèle. Surveillez les performances de la plateforme. Diagnostiquer et résoudre les incidents complexes (support niveau 3). Assurer le suivi technique auprès de l'éditeur si nécessaire. Intégration et automatisation : Intégrez Collibra aux systèmes internes. Configurer et maintenir les connecteurs. Tirer parti des API REST de Collibrapour automatiser les processus. Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées. Configurer et maintenir les flux de travail. Mettre en œuvre des mécanismes d'automatisation et d'optimisation continue (Exemple : automatiser le chargement des données Collibra Insights sur CDH). Accompagnement des entités : Assurer le support fonctionnel et technique N3 via JIRA . Adapter les aménagements et le modèle opérationnel . Création de tableaux de bord personnalisés (avec HTML) . Diriger des sessions d'intégration, des démos et des formations ciblées . Accompagner les entités dans leur onboarding . Être le référent technique Collibra pour les entités et les équipes Data Gouvernance
Freelance

Mission freelance
Tech Lead DevOps CIAM (AWS / SAP CDC Gigya / Cybersécurité)

Gentis Recruitment SAS
Publiée le
API
API REST
AWS Cloud

6 mois
Paris, France
1. Contexte de la mission Notre client déploie une plateforme CIAM basée sur SAP Customer Data Cloud (Gigya) afin de gérer l’authentification et la gestion des identités clients B2B et B2C . La plateforme actuelle comprend : Une base utilisateurs B2C Une base utilisateurs B2B Des bases en marque blanche pour des cas d’usage spécifiques Les enjeux stratégiques de la plateforme sont les suivants : Mise en place d’une expérience SSO unifiée , inspirée de FranceConnect Respect strict des exigences RGPD et cybersécurité Passage à l’échelle pour atteindre 13 millions d’utilisateurs à horizon 2028 Personnalisation des parcours utilisateurs sans impact sur le socle commun (master site) 2. Objectifs de la mission Le Tech Lead CIAM interviendra sur les axes suivants : Pilotage des évolutions techniques de la plateforme SAP CDC (Gigya) Définition et formalisation des standards d’intégration pour les applications B2B et B2C Garantie de la conformité réglementaire (RGPD) et des exigences cybersécurité Accompagnement et montée en compétence des équipes techniques internes 3. Périmètre d’intervention Architecture & Design Revue de l’architecture existante Conception et optimisation des parcours d’authentification Intégration des protocoles OIDC, OAuth2 et SAML Sécurité & Authentification Mise en œuvre de MFA granulaire Intégration OTP (SMS, email) Gestion des mécanismes anti-fraude (Captcha, protection des APIs) Performance & Scalabilité Automatisation des processus RUN Optimisation des performances et de la résilience Raccordement et onboarding applicatif à grande échelle Support & Expertise Rôle de référent technique CIAM Support aux équipes projet et applicatives Contribution à la formation et à la documentation technique 4. Livrables attendus Audit technique détaillé de la plateforme CIAM existante Roadmap d’évolution couvrant : Personnalisation des parcours MFA / OTP APIs et intégrations Procédures standardisées d’intégration applicative Plan de sécurisation conforme aux directives cybersécurité et RGPD 5. Profil recherché Compétences techniques requises Expertise confirmée sur SAP Customer Data Cloud (Gigya) et les architectures CIAM Maîtrise des protocoles d’identité : OIDC, OAuth2, SAML Solide expertise en cybersécurité et conformité RGPD Maîtrise du Cloud public , en particulier AWS Expérience d’intégration multi-applications à grande échelle Compétences en automatisation et scripting (Python, JavaScript) Maîtrise des API REST et des webhooks Connaissance des outils CI/CD et des extensions compatibles avec SAP CDC Mise en œuvre des bonnes pratiques DevOps (déploiement, monitoring, RUN automatisé) Compétences transverses Capacité à évoluer dans un environnement international Travail en contexte multi-projets et multi-équipes Forte capacité de structuration, de standardisation et de transmission
Freelance

Mission freelance
[MDO] Analyst Fonctionnel expérimenté

ISUPPLIER
Publiée le
Databricks
Python
SQL

1 an
400-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte : Dans le cadre de projets data stratégiques, le consultant interviendra pour assurer l’analyse, le traitement et la qualité des données provenant des équipes N2 en usine. Il participera à toutes les phases, de la collecte des besoins à la mise en production et au support post-déploiement, en environnement Agile. Missions principales : Recueillir et analyser les besoins métiers . Formaliser les user stories pour les développements et traitements de données. Réaliser l’analyse des données provenant des équipes N2. Participer à la phase de recette et vérifier la qualité des livrables. Contribuer aux déploiements et aux mises en production. Rédiger et maintenir la documentation fonctionnelle et technique . Assurer le support post-mise en production . Compétences requises : Databricks Python SQL avancé Azure Fundamentals Expérience de travail en environnement Agile Connaissance des enjeux data : qualité, traçabilité, gouvernance Anglais : niveau B2 minimum (TOEIC 785–940)
Freelance

Mission freelance
Expert sécu applicative

Codezys
Publiée le
Collibra
Python
Vulnerability management

12 mois
450-500 €
Toulouse, Occitanie
Au sein de notre équipe de sécurité applicative, vous serez chargé(e) d’analyser les nouvelles vulnérabilités identifiées par nos outils de sécurité. Vous prioriserez leur correction en coordination avec les équipes concernées, en tenant compte du degré d’urgence, tout en fournissant des éléments d’aide pour faciliter la résolution. Vous aurez également l’opportunité de contribuer aux automatisations existantes afin d’optimiser notre processus de sécurité. Responsabilités : Analyser les vulnérabilités applicatives détectées par nos outils de sécurité. Prioriser les corrections et collaborer avec les équipes concernées en fonction du niveau d’urgence. Fournir un soutien et des ressources pour la correction des vulnérabilités. Participer aux initiatives d’automatisation des processus de sécurité. Modalités : Localisation : Toulouse Mode de travail : 2 jours de télétravail par semaine Budget prestataire : 500 € par jour Expérience requise : entre 6 et 9 ans
CDI
Freelance

Offre d'emploi
Développeur.euse senior PostgreSQL et front-end

Atlanse
Publiée le
Angular
Back-end
CI/CD

3 ans
55k-65k €
400-500 €
Paris, France
Vous intervenez en tant que développeur.euse senior expert.e PostgreSQL et front-end pour accompagner la modernisation et l’évolution de plusieurs applications stratégiques. Dans un environnement à forts enjeux de performance, de qualité, de sécurité et de gouvernance des données, vous contribuez à concevoir des solutions robustes et pérennes. Votre rôle Développement et Implémentation · Concevoir, optimiser et maintenir les bases de données PostgreSQL · Réaliser les développements front-end selon la stack en place (React, Vue ou équivalent) · Participer ponctuellement aux développements back-end si besoin (Python, Node.js ou autre stack interne) · Mettre en place et industrialiser des pipelines de données (ingestion, transformation, qualité) · Contribuer à l’amélioration continue des solutions existantes · Mettre en place de bonnes pratiques de performance, de sécurité et de monitoring Architecture et choix techniques · Participer aux choix d’architecture data et applicative · Concevoir des schémas de données robustes, évolutifs et alignés avec les usages · Optimiser les performances SQL et accompagner la montée en charge · Contribuer à la définition et à l’amélioration des standards front-end Pilotage technique · Prendre part aux arbitrages techniques et à la priorisation des sujets · Apporter un appui ponctuel au tech lead dans la coordination technique Collaboration et communication · Travailler en étroite collaboration avec le tech lead, les développeurs et les équipes data · Echanger régulièrement avec la cheffe de projet pour cadrer, clarifier et suivre l’avancement · Contribuer à la documentation (Confluence, documentation technique)
Freelance

Mission freelance
Data domain lead

Codezys
Publiée le
Python
SQL

6 mois
450-550 €
Aubervilliers, Île-de-France
Aligner et renforcer les capacités des équipes IS&T, Data & Digital en coordination avec les parties prenantes du groupe. Accélérer, industrialiser et déployer des services numériques et de la valorisation des données, en s'appuyant sur des modèles de livraison basés sur les services, expertises métiers et logiciels. Développer, maintenir et soutenir des offres technologiques, data et digital pour créer de la valeur, en interne comme en externe. Chaque département doit se concentrer sur ses compétences clés tout en créant des synergies et en optimisant les interactions. Rôle du département DATA : Valoriser le potentiel des données en en faisant un actif stratégique pour renforcer la prise de décision basée sur les données. Renforcer la chaîne de valeur Data, en appliquant une stratégie de source unique de vérité, simplifier l’écosystème data et favoriser une approche centrée sur les données dans la stratégie applicative. Devenir un leader en Ecological AI en co-concevant un portefeuille de solutions Data. Équipe Data Transformation : Créer et dispenser des formations sur la data aux différents segments du personnel data. Réaliser des projets data avec les départements et Business Units (BU), notamment en automatisant les processus de reporting (projet KISS). Mettre en place une organisation Data à l’échelle du groupe et des BU pour améliorer la gouvernance et le reporting, en animant une communauté de responsables de la transformation data. Objectifs et livrables : En tant que responsable du domaine Data, vous gérez des missions de transformation, construisez des cas d’usage en analytics, supportez les initiatives d’automatisation et de changement, et garantissez l’alignement stratégique des produits data. Responsabilités clés : Vision et stratégie produit : Définir la vision et la feuille de route des produits data, agir comme point de contact unique pour les besoins métiers et aligner les solutions sur les objectifs opérationnels. Mise en œuvre & standards : Développer des solutions data (pipelines, datamarts, visualisations) conformes aux standards architecturaux, avec une expertise en modélisation sémantique et gestion des Master Data. Analyse & insights : Identifier des tendances via l’analyse de données, créer des dashboards et rapports stratégiques, soutenir les analystes citoyens en identifiant des opportunités à forte valeur ajoutée. Transformation et autonomisation : Promouvoir la maturité data par la formation (ex. Data Passport), faire évoluer la culture data et animer une communauté de Data Owners. Partenariats et adoption : Gérer attentes et besoins des parties prenantes, promouvoir et faciliter l’adoption des solutions data par les BU, en soutenant leur connexion à la plateforme.
Freelance

Mission freelance
Data Scientist

emagine Consulting SARL
Publiée le
Apache Spark
Bash
Git

36 mois
Roissy-en-France, Île-de-France
Dans le cadre d’un programme de transformation digitale au sein de l’activité Cargo d’un grand acteur du transport aérien international, nous recherchons un(e) Data Scientist afin d’intervenir sur des problématiques de Pricing et de Revenue Management. L’objectif de la mission est de contribuer à la maximisation des revenus liés au transport de marchandises en développant et en améliorant des outils d’aide à la décision basés sur des modèles de prédiction et d’optimisation. Au sein d’une équipe spécialisée en modélisation avancée, vous serez amené(e) à : Développer et améliorer des modèles de Machine Learning Travailler sur des moteurs de prédiction et d’optimisation Optimiser les stratégies de tarification Challenger et faire évoluer des modèles existants Répondre aux besoins des équipes métier Vulgariser des concepts mathématiques lors de présentations
CDI

Offre d'emploi
Consultant(e) DATAIKU DSS

Hexateam
Publiée le
Dataiku
MySQL
Python

Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
CDD
CDI
Freelance

Offre d'emploi
Ingénierie en sécurité Opérationnelle - IDF – Authentification-N2

KEONI CONSULTING
Publiée le
Linux
Python
Single Sign-on (SSO)

18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Objectif global : Administrer les solutions d'authentification MISSIONS Description détaillée Dans le cadre de l’équipe Access Control, nous recherchons un candidat pour assurer le RUN (MCO/MCS) des plateformes SSO et d’authentification, et contribuer à leur évolution dans un environnement banque / assurance fortement réglementé (sécurité, conformité, disponibilité). Le périmètre exact pourra être ajusté, mais couvrira notamment : Plateformes SSO / fédération d’identités (type : SAML, OpenID Connect, OAuth2) Solutions d’annuaire / LDAP / AD / AAD MFA / authentification forte, certificats, gestion des secrets Intégration avec les applications métiers (web, API, mobiles) Une bonne connaissance de Ilex Sign & Go est un vrai plus Missions principales Le candidat interviendra au sein de l’équipe Access Control et aura pour missions principales : RUN / MCO Assurer l’exploitation quotidienne des plateformes SSO et d’authentification Superviser les composants (disponibilité, performances, logs, alertes) Gérer les incidents N2/N3 : diagnostic, résolution, escalade, communication Analyser les causes racines (RCA) et proposer des actions préventives Participer aux astreintes / plages étendues le cas échéant Administration & intégration Gérer les configurations SSO et les fédérations d’identités (SAML, OIDC, OAuth2) Intégrer de nouvelles applications au SSO (création de connecteurs, policy, mappings, scopes) Participer aux mises à jour, montées de version, campagnes de patching Contribuer à la sécurisation des parcours d’authentification (MFA, durcissement, etc.) Amélioration continue & documentation Mettre à jour et enrichir la documentation d’exploitation et les procédures Contribuer à l’industrialisation et à l’automatisation des opérations récurrentes (scripts, CI/CD, Ansible, etc.) Participer aux comités techniques et proposer des optimisations (performance, sécurité, résilience) Profil recherché Expérience significative (≥ [3/5] ans) en exploitation / RUN de plateformes d’authentification et SSO en environnement de production critique Maîtrise des protocoles d’authentification et de fédération : SAML 2.0, OAuth2, OpenID Connect Bon niveau sur les environnements Linux (et/ou Windows) et les briques techniques associées : HTTP(S), reverse-proxy, certificats TLS, DNS, firewall, load balancing Connaissance des concepts IAM : gestion des identités, annuaires LDAP/AD, MFA, RBAC/ABAC Pratique des processus ITIL (incident, problème, changement) et des contraintes de production d’un grand compte (banque / finance idéalement) Capacité à diagnostiquer des incidents complexes (analyse de logs, traces HTTP, tokens, etc.) Compétences techniques appréciées Expérience sur une ou plusieurs solutions du marché (ex. : Ilex,ForgeRock, Ping, Keycloak, Azure AD, WSO2, IBM, etc.) Outils d’industrialisation / scripting : Bash, PowerShell, Python, Ansible, CI/CD, etc. Connaissance des contraintes réglementaires et de conformité du secteur bancaire Soft skills Sens du service et de la fiabilité en production Rigueur, capacité de formalisation et de documentation Esprit d’équipe, bonne communication avec les équipes projets, sécurité, infra et support Autonomie, proactivité, capacité à alerter et à proposer des améliorations Modalités de réponse Compétences techniques SSO - Confirmé - Important administration windows - Junior - Souhaitable Fédération d'identité (SAMLv2, WS-Fed...) - Confirmé - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif)
1475 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous