Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 450 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI
Freelance

Offre d'emploi
Responsable RUN/Data

OBJECTWARE
Publiée le
Master Data Management (MDM)

3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Freelance

Mission freelance
Expert data DataCloud (DataBricks) Nantes /st

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance
CDI

Offre d'emploi
Business Analyst IT – Data / BI – Finance de Marchés (H/F)

Amontech
Publiée le
Business Analyst
C#
Confluence

1 an
45k-50k €
500-550 €
Paris, France
🧠 Contexte Au sein d’une direction IT, vous intégrez une équipe dédiée à la data client en finance de marchés . Cette équipe développe des solutions de Business Intelligence permettant aux équipes Front Office (Global Markets) d’exploiter leurs données, notamment pour : Suivi de la rentabilité client (Client Contribution) Performance des équipes commerciales (Sales Credit) Analyse des hit ratios (RFQ) Suivi des interactions clients (CRM : meetings, contacts…) 🎯 Missions Au quotidien, vous interviendrez sur des activités de run et de projet : 🧩 Analyse & cadrage Recueillir et analyser les besoins métier Rédiger les spécifications fonctionnelles 🧪 Tests & validation Définir la stratégie de tests Rédiger les cas de tests Piloter les recettes et rédiger les PV de validation 📊 Suivi & coordination Maintenir le backlog à jour Suivre l’avancement des sujets Coordonner les différents intervenants (IT & métier) 🛠 Support Gérer des incidents de niveau 2 Analyser des problématiques sur : IHM dashboards BI bases de données (requêtes SQL) 🔄 Change management Accompagner les utilisateurs Contribuer à l’adoption des solutions ⚙️ Méthodologie Participation active aux rituels Agile 🛠 Environnement technique Microsoft (SQL Server, SSAS, Power BI, .Net C#) Business Objects Jira, Xray, Confluence
Freelance

Mission freelance
PROXY PRODUCT OWNER DATA

Codezys
Publiée le
ERP
Finance
P2P

6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
CDI
Freelance

Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)

AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI

3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Freelance

Mission freelance
Ingénieur DevOps – AWS / EKS / Terraform H/F

Comet
Publiée le
AWS Cloud
IAM
Terraform

6 mois
500-600 €
Paris, France
Contexte Une entreprise du secteur de la finance quantitative recherche un DevOps Engineer pour rejoindre une équipe dédiée aux plateformes de données avancées. L’entreprise exploite des volumes massifs de données financières en temps quasi réel pour le trading algorithmique et l’analyse quantitative. L’objectif est de permettre aux équipes de recherche de manipuler en autonomie des datasets très volumineux (10–30 To) pour le feature engineering, tout en garantissant : Réduction des frictions liées à l’infrastructure Ergonomie proche de l’usage Pandas pour les data scientists Observabilité, industrialisation et self-service
Freelance
CDI

Offre d'emploi
TECH LEAD JAVA ALMT (9 ans et plus)

Digistrat consulting
Publiée le
DevOps
Développement
Java

3 ans
50k-65k €
550-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Application back office généraliste (multiproduits) et local (nombreux sites & utilisateurs dans le monde). L'entité Interface est en charge d'interfacer ce système avec les autres systèmes (booking, paiements, référentiels...) Il s'agit de contribuer aux développements des interfaces. Le code est principalement en C et Java avec un peu de shell (ksh, awk). 💡 Les livrables attendus sont : Discussion sur les solutions techniques avec les architectes Orienter les clients et l'équipe vers la solution technique la plus appropriée Pilotage et encadrement des équipes de dev Développement des pipelines streaming pour la production et consommation avec la librairie apache-kafka Accompagnement et coaching des membres de l'équipe sur les bonnes pratiques techniques Porter la démarche d'amélioration continue associée (clean code..) Participer aux développements et à l'implémentation des solutions, notamment sur les phases sensibles du développement (développement web service Rest) Identification des points bloquants et analyser les obstacles de manière proactive afin de remplir le Sprint (gestion des incidents) DevOps : développent de la chaine CI/CD jenkins Revue de code et vérification des métriques (Jenkins, Sonar) pour garantir la qualité de code Organisation des réunions avec l'ensemble des interlocuteurs des applications qui s'interfacent avec le domaine de la garantie Participation à la rédaction des Document Architecture Technique avec les architectes techniques Participation à la roadmap des livraisons à moyen et long terme et négocier, avec le BO Onboarding des nouveaux arrivants
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
.NET
Azure
Azure Data Factory

6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous rejoindrez une équipe IT internationale, composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA et de spécialistes du run et du monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud sur nos sites en France et en Europe. En tant que Backend Developer, vous intégrerez l’équipe backend basée dans la région lyonnaise. L’équipe bénéficie d’une grande expérience, d’une forte culture de partage des connaissances et d’une curiosité technique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution de la plateforme et à la fiabilité à long terme de nos services IoT. Objectifs et livrables Dans ce rôle, vous devrez : Développer des services backend et des API en C# / .NET en suivant les bonnes pratiques et les standards de qualité pour assurer la robustesse, la sécurité et la performance des solutions apportées. Participer aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives, afin d’assurer une collaboration efficace et une amélioration continue. Contribuer à l’amélioration de notre plateforme cloud Azure en réalisant la mise à jour des frameworks, la gestion des composants en fin de vie, et en veillant à la conformité sécurité de l’ensemble de la plateforme. Soutenir nos méthodes de travail en adoptant une approche DevOps, Cloud et Agile, afin de garantir la livraison régulière de solutions innovantes et fiables. Explorer de nouvelles technologies et collaborer étroitement avec les architectes pour intégrer les innovations pertinentes dans notre plateforme IoT. Travailler avec un haut degré d’autonomie tout en collaborant avec l’équipe pour affiner les besoins, proposer des solutions adaptées et assurer leur implémentation efficace. Ce poste offre l’opportunité de contribuer au développement d’une plateforme IoT innovante, dans un environnement dynamique et international, en étant acteur de l’évolution technologique et de la fiabilité des services proposés.
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance

Mission freelance
Data Scientist Senior (IA Générative & NLP)

Nicholson SAS
Publiée le
Agent IA
AWS Cloud
Dataiku

6 mois
450 €
Colombes, Île-de-France
Nous recherchons un Data Scientist Senior (5 à 9 ans d'expérience) pour intervenir sur des projets d'envergure mêlant Intelligence Artificielle conventionnelle et IA Générative. 📍 Modalités de la mission Lieu : Colombes (Hybride : 2 à 3 jours/semaine sur site) Date de démarrage : 04/05/2026 Date de fin : 30/10/2026 (prolongation possible) Budget (TJM ) : 450 € 🎯 Cœur de mission Expert en IA, vous concevez et implémentez des systèmes d'IA générative avancés (LLM). Vous accompagnez techniquement les équipes, de la phase de prétraitement des données jusqu'au déploiement en environnement Cloud, tout en garantissant la robustesse et la factualité des modèles. 🛠 Compétences techniques Expertise IA Générative & NLP (Indispensable) : LLM & RAG : Maîtrise des architectures RAG (chunking, embeddings, vector indexing, retrieval), du prompt engineering avancé et des frameworks comme LangChain ou LlamaIndex . NLP : Prétraitement textuel complet (parsing, POS Tagging, normalisation) et évaluation des modèles (métriques NLP, analyse d'hallucinations et factualité). Deep Learning : Maîtrise des architectures Transformers, RNN, LSTM et GRU. Stack Technique : Langages & Libs : Excellente maîtrise de Python et des bibliothèques standards ( PyTorch, TensorFlow, Scikit-learn ). Cloud & MLOps : Déploiement sur environnements Cloud (idéalement AWS : SageMaker, Bedrock, OpenSearch). Pratiques CI/CD via GitLab . Outils Data : Connaissance de Dataiku et des enjeux réglementaires (RGPD / AI Act).
Alternance
CDI

Offre d'emploi
Data Analyst Supply Chain - Alternance F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Compans, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI

Offre d'emploi
Ingénieur IAM H/F

CONSORT GROUP
Publiée le
Bash
Groovy
Jenkins

45k-60k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Ingénieur IAM H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la gestion des identités et des accès ainsi que par la cybersécurité ? Ce poste est fait pour vous. En tant qu’ Ingénieur IAM (Identity & Access Management) , vous êtes responsable de la gestion et de la sécurisation des identités et des accès de notre écosystème : Côté build : Concevoir et faire évoluer les solutions IAM Mettre en place des mécanismes d’authentification (SSO, MFA) Intégrer les applications aux systèmes IAM Participer aux projets de sécurisation des accès Automatiser les processus IAM (provisioning, déprovisioning) Implémenter les bonnes pratiques de sécurité (gestion des privilèges, durcissement des accès) Côté run : Administrer et maintenir les solutions IAM en conditions opérationnelles Gérer les identités et les habilitations utilisateurs Superviser les annuaires et référentiels (LDAP, Active Directory) Assurer le support N2/N3 et la gestion des incidents Suivre les performances et la disponibilité des systèmes IAM Contribuer à l’amélioration continue (processus, documentation, sécurité) Participer aux audits de sécurité et de conformité C’est votre parcours Vous avez au moins 3 à 7 ans d’expérience dans des environnements IT et sécurité exigeants. Vous aimez résoudre des problématiques complexes liées aux identités et aux accès sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise Environnements Linux (RedHat) Solutions IAM / IDM (MidPoint) SSO (LemonLDAP) Annuaires : OpenLDAP, Active Directory Protocoles : LDAP, OIDC, SAML Scripting : Python, Bash, Groovy, Perl CI/CD : GitLab, Jenkins, Ansible Sécurité : AD Tiering, gestion des privilèges C’est votre manière de faire équipe Esprit d’analyse et rigueur Sens du service et orientation utilisateur Capacité à collaborer avec des équipes techniques et métiers Proactivité et force de proposition Bon relationnel et communication C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : [Hybride selon mission] Salaire : De 45 000€ à 60 000€ (selon expérience) brut annuel Famille métier : cybersécurité Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
2450 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous