Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 589 résultats.
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Mission freelance
Data Manager Senior - Paris - Anglais
ARTESIA IT
Publiée le
Data governance
1 an
600-700 €
Paris, France
Nous recherchons un Data Manager pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle des données et la gouvernance des données, afin de garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines. 🔹 Présentation du poste • Architecture fonctionnelle des données & modélisation des données • Urbanisation des données : ownership par domaine, valorisation des actifs data et définition de la vision cible des données • Qualité des données & gouvernance des données • Travail dans un environnement Agile • Interaction avec les parties prenantes métiers et IT • Excellentes compétences relationnelles pour accompagner le changement de manière intelligente et constructive • Forte compréhension technique combinée à une solide vision métier • Profil proactif et autonome, capable de clarifier des sujets complexes et de favoriser l’alignement lorsque plusieurs équipes sont impliquées 🔹 Profil recherché • Forte expérience en modélisation des données et en pratiques de data management • Solide compréhension de la normalisation / dénormalisation, du SQL et de la traçabilité des données (data lineage) • Minimum 10 ans d’expérience professionnelle en Data Management • Maîtrise du français et de l’anglais • Présence en France requise • Basé à Paris (60 % télétravail / 40 % sur site)
Mission freelance
Data Custodian - Data Manager H/F
Insitoo Freelances
Publiée le
Data management
2 ans
400-550 €
Nantes, Pays de la Loire
Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Custodian - Data Manager H/F à Nantes, France. Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources. Les compétences clés pour ce rôle : Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Principales activités du BUILD : Cartographier les données RAW, identifier les sources disponibles et leurs caractéristiques. S’assurer de la bonne documentation des données des sources dans le RAW Data. Participer aux ateliers de conception, garantir la cohérence et la complétude des données. Mettre en place des outils de découvrabilité, catalogues, dictionnaires de données. Préparer la supervision de la chaîne / flux, définir les métriques et alertes pour le suivi en RUN. Principales activités du RUN : Effectuer la supervision technique du RAW. Superviser la chaîne complète en suivant les flux et les indicateurs. Informer les socles des évolutions à venir, suivre les backlogs des sources et analyser l’impact. Être sponsor des évolutions des SI pour améliorer la qualité des données ingérées dans les socles.
Offre d'emploi
Software Engineer Python – Azure IA
Craftman data
Publiée le
AI
Azure AI
Azure AI Foundry
3 mois
Paris, France
Contexte de la mission Dans le cadre du développement de solutions d’Intelligence Artificielle sur Microsoft Azure, nous recherchons un Software Engineer Python avec une expérience de 3 a 5 ans disposant d’une première expérience (1 à 2 ans) sur des projets IA, idéalement en environnement Azure. Le collaborateur interviendra au sein d’une équipe cloud & data pour développer, intégrer et maintenir des solutions basées sur Azure OpenAI, Azure AI Services et Azure AI Search , dans un environnement structuré (Landing Zone, sécurité, CI/CD). La mission couvre principalement le développement, l’intégration et l’industrialisation technique de composants IA. Objectifs de la mission : • Développer des applications Python intégrant des services Azure IA • Contribuer à la mise en place de solutions RAG et LLM • Participer à l’industrialisation et à la mise en production sur Azure • Assurer la qualité, la performance et la maintenabilité du code • Monter progressivement en expertise sur l’écosystème Azure IA Responsabilités principales : 🔹 Développement Python & Intégration IA • Développer des APIs et services backend en Python (FastAPI, Flask ou équivalent) • Intégrer Azure OpenAI Service dans des applications métiers • Implémenter des pipelines de traitement de données (préparation, chunking, embeddings) • Participer à la mise en place d’architectures RAG simples • Intégrer Azure AI Search (vector search, indexation) • Manipuler des bases de données (SQL, NoSQL) 🔹 Industrialisation & Cloud : • Déployer des applications sur Azure (App Service, Container Apps, Functions) • Participer à la mise en place de pipelines CI/CD (Azure DevOps ou GitHub Actions) • Contribuer à la containerisation des applications (Docker) • Appliquer les bonnes pratiques de sécurité (Managed Identity, RBAC, gestion des secrets) • Participer aux déploiements multi-environnements (dev / test / prod) Qualité & Bonnes pratiques : • Rédiger du code propre, documenté et testé • Mettre en place des tests unitaires et d’intégration • Participer aux revues de code • Contribuer au monitoring et logging des applications • Documenter les développements techniques 🧩 Compétences techniques requises : 💻 Développement • Python (maîtrise opérationnelle) • Framework API (FastAPI, Flask ou Django) • Manipulation d’APIs REST • Git ☁️ Azure & IA • Connaissance de Azure OpenAI Service • Notions d’architectures LLM et RAG • Azure AI Search (notions vector search appréciées) • Azure Storage (Blob, Files) • Azure App Service / Functions / Container Apps • Bases en sécurité Azure (Entra ID, RBAC) 🔄 DevOps • Docker • CI/CD (Azure DevOps ou GitHub Actions) • Notions d’Infrastructure as Code (Terraform apprécié mais non obligatoire) 🤝 Soft skills & posture attendue • Esprit d’équipe et capacité à collaborer avec les équipes data et cloud • Rigueur technique et sens de la qualité • Curiosité technologique (veille IA & cloud) • Autonomie progressive • Capacité à comprendre un besoin métier et à le traduire techniquement 👤 Profil recherché • 3 à 5 ans d’expérience en développement Python • Première expérience sur un projet IA (chatbot, RAG, NLP, ML, etc.) • Connaissance pratique d’Azure appréciée • Diplôme Bac+5 (école d’ingénieur ou université) ou équivalent • Forte appétence pour l’IA et le cloud
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
Data Custodian
Signe +
Publiée le
Data management
10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
Offre d'emploi
Expert Stockage avec forte culture DevOps
Craftman data
Publiée le
DevOps
Infrastructure
Réseau de stockage SAN
1 an
Saint-Léger-en-Yvelines, Île-de-France
Expert Stockage avec forte culture DevOps Nous recherchons un Expert Stockage avec une forte appétence DevOps pour intervenir chez l’un de nos clients grands comptes. Contexte de la mission Le client souhaite renforcer ses équipes avec un profil hybride : capable d’intervenir sur le stockage tout en maîtrisant les outils d’automatisation et les logiques DevOps. Compétences Recherchées Must-have : Maîtrise des environnements de stockage d’entreprise : PowerMax, Pure Storage, NetApp (NAS), Dell ECS. Bonne compréhension des réseaux SAN : Cisco. Automatisation (90% de l'activité) : scripting via Ansible , gestion de version via GitHub . Appétence forte pour l’ industrialisation / mise à disposition en self-service via portail. Capacité à faire du MCO sur les scripts , à gérer les logs / seuils de performance . Tâches Développement et maintien des scripts d’automatisation de provisioning NAS. Participation à la gestion du backlog IAS. Contribution à l’amélioration continue de la chaîne de provisioning (automatisation, exposition, intégration dans la CMDB). Suivi des anomalies liées aux performances de stockage Conditions Démarrage : ASAP Durée : Longue mission Pas d’intervention sur la partie sauvegarde Profil recherché Positionnement clairement DevOps/Infra , avec maîtrise réelle du stockage . Savoir naviguer dans des organisations matures, avec un haut niveau d’exigence technique.
Offre d'emploi
Architecte SI Cloud (Move to Cloud)
RIDCHA DATA
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
1 an
40k-70k €
400-610 €
Ivry-sur-Seine, Île-de-France
Contexte & Enjeu Dans le cadre d’un programme stratégique de Move to Cloud , nous recherchons un Architecte SI spécialisé Cloud pour accompagner la transformation du système d’information. L’objectif est de : Définir l’architecture cible Cloud Construire les scénarios de migration Sécuriser la trajectoire technique et financière Optimiser les coûts via une approche FinOps Le poste s’inscrit dans une démarche d’évolution globale de l’architecture SI, en cohérence avec le plan d’urbanisation et les exigences de performance, sécurité et interopérabilité. Contrainte forte du projet Accompagnement stratégique du Move to Cloud Engagement sur la cohérence d’architecture Dimensionnement financier et optimisation des coûts (ROI / FinOps) Livrables attendus DAT (Dossier d’Architecture Technique) Scénario de migration Move to Cloud Étude d’impact technique Calcul du ROI de la migration Modélisation des coûts (CAPEX / OPEX) Recommandations d’optimisation FinOps Plan de réversibilité Missions principales 1. Définition de l’architecture cible Concevoir et valider l’architecture technique Cloud (IaaS / PaaS / SaaS) Définir les standards techniques en lien avec l’urbaniste Garantir l’interopérabilité avec l’environnement existant Définir un socle technique conforme au plan d’urbanisation Préconiser des choix techniques engageant la performance et la disponibilité 2. Pilotage du Move to Cloud Élaborer la stratégie de migration : Rehost (Lift & Shift) Replatform Refactor Prioriser les applications à migrer Définir les scénarios de migration Identifier les dépendances techniques Construire le plan de bascule Définir les mécanismes de réversibilité 3. Dimension financière & FinOps Modéliser les coûts d’hébergement cloud Comparer On-Prem vs Cloud Construire le business case Calculer le ROI de la migration Mettre en place des pratiques FinOps : Optimisation des ressources Réservation d’instances Monitoring des coûts Gouvernance budgétaire 4. Gouvernance & accompagnement Rédiger les DAT Présenter les architectures aux équipes opérationnelles Accompagner les équipes infrastructure et exploitation Assurer la veille technologique Être force de proposition sur les nouvelles briques cloud Compétences techniques (Impératif) Cloud – Expert Azure / AWS / GCP (selon contexte) Hybridation On-Prem / Cloud Virtualisation / Conteneurisation Conception d’architecture – Expert FinOps – Expert Infrastructure & Datacenter Conteneurisation (Kubernetes, Docker) Automatisation (IaC, GitOps, CI/CD) Connaissances techniques appréciées Environnements Windows / Linux Virtualisation (VMware) Solutions de stockage & réseaux Sécurité Cloud PRA / PCA Certification ISO 27001 / HDS (si contexte sensible)
Offre d'emploi
Motion Graphic Designer (H/F)
RIDCHA DATA
Publiée le
Adobe After Effects
Motion design
1 an
Paris, France
Objectif du poste : Produire des vidéos animées en motion design répondant aux objectifs de communication de la marque, depuis la compréhension du brief jusqu’à la livraison finale des contenus. Livrable principal : Vidéo animée (motion design 2D) Déclinaisons éventuelles de formats (réseaux sociaux, web, etc.) Missions : Rattaché(e) à l’équipe communication / création, vous aurez pour missions de : Comprendre le brief, les objectifs de communication et la cible Proposer une direction artistique cohérente avec l’identité de la marque Concevoir le storyboard et/ou l’animatique Réaliser les animations en motion design 2D Intégrer les éléments graphiques, typographiques et les transitions Intégrer une musique libre de droits et/ou une voix off si nécessaire Produire la vidéo finale et ses éventuelles déclinaisons de formats Assurer les ajustements et itérations suite aux retours des équipes internes ou du client
Offre d'emploi
Data Scientist / ML Engineer – Credit Risk & GenAI
Taimpel
Publiée le
Architecture
Data science
MLOps
2 ans
56k-63k €
550-600 €
Croix, Hauts-de-France
Fiche de poste Data Scientist / ML Engineer – Credit Risk & GenAI Expérience : 5–7 ans Contexte : IA / Risk / MLOps / GenAI Contexte Dans le cadre de sa feuille de route IA, Oney développe des solutions de : Machine Learning NLP IA générative pour optimiser le scoring crédit, les processus opérationnels et l’expérience client . MissionsCredit Risk Scoring Conception et optimisation des modèles de scoring Entraînement, déploiement et monitoring des modèles Suivi de la dérive et stabilité du coût du risque Collaboration avec les équipes Risque et Validation AI Solutions Intégration de modèles ML en temps réel via API Participation à l’architecture technique (Cloud / MLOps) Industrialisation des modèles GenAI Prototypage et mise en production d’agents IA (LLM, RAG) Automatisation de processus métiers (risque, marketing, support) Monitoring et optimisation des performances des agents Compétences techniquesMachine Learning Logistic Regression Tree-based models XGBoost / LightGBM Explainable AI (SHAP, LIME) LLM / modèles génératifs (OpenAI, HuggingFace) Python & MLOps Python, Pandas, Scikit-learn MLflow, FastAPI LangChain / LangGraph CI/CD, pytest Docker, Kubernetes Feature stores Monitoring modèles (drift, performance) Data & Cloud Azure ML Databricks PySpark Git, Bitbucket, Azure DevOps Jira, Confluence Apprécié : Snowflake Contexte bancaire / scoring crédit Profil recherché Data Scientist avec expérience mise en production des modèles À l’aise en ML, MLOps et architecture technique Capacité à travailler avec les équipes métiers (Risque, Paiement, Digital) Intérêt pour l’IA générative et les architectures agentiques
Mission freelance
Assurance - Data Management
FINAX Consulting
Publiée le
Data management
6 mois
550-700 €
Paris, France
Consultant Senior en Data Management – Gouvernance Data (Assurance) Consultant freelance en Data Management Nous recherchons un consultant Senior en Data Management pour le compte d’un de nos clients assurance dans le cadre d’un projet de renforcement de la gouvernance Data et de montée en compétence des équipes métiers. Contexte Dans un contexte de structuration des pratiques Data et d’accélération de la maturité des Data Domains Managers, la mission vise à constituer un pool d’experts capables d’intervenir à la fois sur les dimensions opérationnelles, méthodologiques et pédagogiques du Data Management, au sein d’un environnement exigeant et régulé. Rôles et responsabilités Contribuer à l’identification, à la structuration et à la valorisation des données clés de l’organisation, en lien avec les équipes métiers et Data. Mettre en place et maintenir une documentation de données fiable et exploitable (dictionnaires, métadonnées, référentiels), alignée avec les standards de gouvernance. Définir et piloter des indicateurs de qualité des données, analyser les écarts et accompagner les actions d’amélioration. Accompagner les Data Domains Managers dans l’appropriation des outils et des pratiques de Data Management, notamment via Collibra. Concevoir et animer des dispositifs de montée en compétence (supports, guides, ateliers) favorisant l’autonomie des équipes et la diffusion des bonnes pratiques. Intervenir en appui sur des initiatives Data structurantes afin de sécuriser les délais, la qualité et la cohérence globale du dispositif de gouvernance. Compétences requises Expertise confirmée en Data Management et Data Governance, acquise dans des environnements complexes et régulés. Maîtrise des outils de catalogage et de gouvernance des données, idéalement Collibra. Solide expérience en qualité des données (définition des règles, suivi des indicateurs, plans d’amélioration). Capacité à produire une documentation claire, structurée et orientée métiers. Forte aisance relationnelle et capacité pédagogique pour accompagner et faire monter en compétence des interlocuteurs non techniques. Autonomie, rigueur et capacité à évoluer dans un contexte assurance. Détails de la mission Démarrage : 16/02/26 Durée : 5.5 mois (jusqu'au 31/07/26) Lieu : Paris Statut : Consultant indépendant / freelance
Mission freelance
Chef de Projet Data / Data Governance
HAYS France
Publiée le
Data governance
Data management
3 ans
100-490 €
Lille, Hauts-de-France
Missions principales Accompagner les équipes produits digitaux dans l’exposition de leurs données , conformément aux règles de gouvernance définies. Déployer et suivre les règles de qualité des données (Data Quality) . Garantir la certification des données publiées . Participer à la modélisation des données exposées. Évaluer le respect des standards de gouvernance par les équipes. Contribuer à l’évolution des règles de gouvernance, data management, data mesh, data product . Collaborer quotidiennement avec les équipes projets, tout en travaillant de manière autonome sur son périmètre. Livrables attendus Données exposées selon les standards de Data Governance du groupe. Règles de Data Quality déployées et opérationnelles. Évaluations documentées du respect des règles de gouvernance.
Offre d'emploi
Incident Manager (ITIL)
RIDCHA DATA
Publiée le
ITIL
1 an
Île-de-France, France
Contexte La mission s’inscrit dans le cadre du maintien en conditions opérationnelles des applications internes , en s’appuyant sur les processus ITIL . L’objectif est d’assurer la performance des services IT, la gestion efficace des incidents et des changements, ainsi que l’amélioration continue des processus ITSM. Missions principales 🔹 Pilotage des incidents & gestion de crise Piloter la gestion des incidents et incidents majeurs Gérer les situations de crise Garantir le respect des SLA Coordonner les escalades techniques Assurer une résolution rapide et efficace 🔹 Gestion des changements Analyser les demandes de changement Organiser et animer les CAB Valider les mises en production Assurer la coordination transverse 🔹 Gestion des problèmes Identifier et analyser les problèmes récurrents Piloter les plans d’actions correctifs Mettre en œuvre des actions préventives Réduire le backlog incidents/problèmes 🔹 Reporting & amélioration continue Produire un reporting régulier : KPI SLA Backlog Contribuer à l’amélioration continue des processus ITSM Être l’interlocuteur du service Process & Tools Livrables attendus Mise à jour des outils ITSM (ServiceNow ou équivalent) Mise à jour de la documentation opérationnelle Comptes rendus d’avancement mensuels Suivi et analyse des indicateurs de performance Environnement Mode Agile Processus ITIL Outils ITSM & observabilité Environnement applicatif et infrastructure complexe Compétences requises 🔹 Techniques Maîtrise des processus ITIL Bonne compréhension des infrastructures IT Expérience en gestion d’incidents majeurs Maîtrise d’outils ITSM (ServiceNow idéalement) Capacité d’analyse d’incidents complexes 🔹 Compétences en IA (appréciées) Connaissance des concepts : ML Generative AI RAG LLM Agents Capacité à formuler des requêtes efficaces (prompting) Sens critique sur les limites et biais de l’IA Sensibilité RGPD et enjeux éthiques Langues Français courant – impératif Anglais professionnel – impératif
Offre d'emploi
Accompagnement Service Delivery Manager (SDM)
RIDCHA DATA
Publiée le
KPI
Pilotage
Reporting
1 an
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans un environnement Cloud & HDS , l’entreprise recherche un Service Delivery Manager Senior pour accompagner les Business Units et assurer le pilotage des prestations IT fournies par la DSI. Le SDM intervient comme interface clé entre la DSI Groupe et les BUs , avec un rôle central dans la qualité de service, la gestion de projets (BUILD & RUN) et l’amélioration continue. Objectifs de la mission Garantir la qualité des services IT fournis conformément aux engagements établis avec les BUs Piloter les prestations et les projets IT en assurant valeur, performance et satisfaction client Structurer et suivre les indicateurs de performance (KPIs) Accompagner les BUs dans le cadrage de leurs besoins et attentes Contribuer à l’amélioration continue des services IT Missions principalesPilotage des prestations Contribuer à la définition et au suivi des conventions de services entre la DSI et les BUs Définir, suivre et analyser les KPIs de qualité de service S’assurer du respect des engagements contractuels et opérationnels Contribuer au suivi financier des services Être garant de la relation client et de la satisfaction des BUs Pilotage projets (BUILD & RUN) Cadrer, collecter et formaliser les besoins métiers des BUs Consolider et valider les propositions techniques et financières Planifier, piloter et suivre les projets IT Animer les comités et réunions de suivi (DSI / BU) Suivre les charges, délais, risques et livrables Piloter la recette et assurer le passage en exploitation Réaliser les bilans projets (REX) Amélioration continue Anticiper les risques impactant la qualité de service (montée en charge, évolutions d’usage, pics d’activité…) Proposer et piloter des plans d’amélioration continue Analyser les indicateurs et définir des actions correctives Cadrer et piloter les tests PCA/PRA Alerter sur l’obsolescence des solutions et proposer des évolutions Compétences requises Gestion de projet : confirmé à senior (impératif) Pilotage de la relation client & KPIs Bonne connaissance des environnements Cloud et On-Premise Compréhension des enjeux DSI / métiers Capacité de coordination transverse et de communication Rigueur, leadership et orientation résultats Livrables attendus Pilotage opérationnel des prestations Reporting et suivi des KPIs Suivi projets BUILD & RUN Plans d’amélioration continue Documentation et bilans projets
Mission freelance
Data Engineer - LYON
TEOLIA CONSULTING
Publiée le
BI
Data Lake
12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
Offre d'emploi
Chef de Projet Technique IAM / SSO
RIDCHA DATA
Publiée le
IAM
Single Sign-on (SSO)
1 an
Paris, France
Description de la mission Dans le cadre d’un programme de remplacement / migration de la solution d’authentification et de SSO , nous recherchons un Chef de Projet Technique intervenant sur l’ensemble du cycle de vie du projet , dans un environnement critique et fortement sécurisé. Le chef de projet aura la responsabilité du pilotage global de la migration vers une nouvelle solution d’authentification et de fédération d’identité. Périmètre de la mission Remplacement / migration de la solution d’authentification et SSO existante Couverture des protocoles de fédération : SAML 2.0 OAuth2 OpenID Connect Intégration avec les annuaires et solutions IAM : AD, Azure AD, LDAP, IAM Groupe… Mise en place et migration de l’authentification forte / MFA Accompagnement à la migration des applications consommatrices : Applications web APIs Applications mobiles Partenaires externes Missions principales 1. Pilotage de projet Construire et maintenir le planning détaillé , le budget et le plan de ressources Organiser et animer les comités de pilotage (COPIL) et comités techniques (COTEC) Coordonner l’ensemble des parties prenantes : Sécurité Infrastructures Réseau Équipes applicatives Éditeurs et intégrateurs Production / Run Suivre : Les risques Les dépendances Les plans d’actions Les arbitrages (priorisation, jalons) 2. Pilotage de la migration Définir la stratégie de migration vers la solution cible : Priorisation des applications et des flux Stratégie de cohabitation et bascule progressive Plan de réversibilité / repli Piloter les phases : POC Pilotes Recettes Généralisation Coordonner les mises en production et les périodes de co-existence Assurer la communication et l’ accompagnement des équipes applicatives clientes du SSO 3. Tests, sécurité et conformité Définir et piloter la stratégie de tests : Fonctionnels Techniques Charge Sécurité Garantir la prise en compte des exigences de sécurité : IAM Authentification forte Conformité réglementaire (contexte bancaire) Valider les exigences de : Disponibilité Performance Résilience (SLA / SLO, PRA / PCA) 4. Documentation & transfert vers le RUN Piloter la production de la documentation : Projet Architecture Exploitation Organiser le transfert de compétences vers les équipes : Run Access Control Support S’assurer de l’adaptation des processus ITIL : Incident Changement Problème Livrables attendus Définition et cadrage du projet Spécifications fonctionnelles et techniques Planning, budget et reporting projet Suivi de la conception et des livrables Recette utilisateur et mise en production Documentation projet et exploitation Communication et suivi client
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Mon ESN me demande de baisser mon TJM de 100 euros
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Root-MENU ressemble à une arnaque
- Client final, ESN et société de portage filiale de l'ESN
- Un Avis sur votre activité
1589 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois