L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 814 résultats.
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Offre d'emploi
Data scientist (H/F)
IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Offre d'emploi
Chef de Projet Transformation Cloud & Hosting
SYNAPSYS IT
Publiée le
AWS Cloud
Azure
Gestion de projet
3 ans
65k-75k €
500-600 €
Nanterre, Île-de-France
Nous recherchons un Chef de Projet technique expérimenté pour piloter des projets stratégiques de transformation autour des environnements Cloud , Hosting et infrastructures Microsoft au sein d’une DSI en pleine convergence. Vous interviendrez au sein d’une Direction Infrastructures & Opérations, dans une équipe dédiée aux projets d’envergure, avec un rôle clé dans la modernisation et l’harmonisation des solutions Cloud & Hosting. Vos missions Transformation Cloud & Azure Piloter l’évolution des environnements Azure : Mise en place d’Azure Managed DevOps Pools Convergence de la solution Redgate avec les offres Database Management Harmonisation du modèle RBAC Définir, documenter et déployer un plan de PRA/DRP Azure dans le cadre d’une démarche ISO 27001. Modernisation des environnements Serveurs Définir un plan d’évolution des serveurs Microsoft (datacenters & régions France). Assurer la montée de version depuis MS SQL 2016 et Windows Server 2016 vers des versions supportées. Conception d’une offre de Hosting Cloud Construire une offre de hosting cloud destinée aux entités locales et internationales. Recueillir les besoins, orienter les choix, formaliser l’offre et en assurer la promotion. Pilotage de projets Cadrer les projets et compléter le Project Management Plan (PMP) . Organiser et animer les kick-offs, comités de pilotage et réunions hebdomadaires. Coordonner les équipes centrales et locales pour garantir qualité, budget et délais. Prendre en charge d’autres projets d’infrastructure selon les priorités de l’année.
Mission freelance
Expert Sécurité Cloud Public – IAM GCP / Azure / AWS (Terraform & CI/CD)
Deodis
Publiée le
Google Cloud Platform (GCP)
1 an
500 €
Île-de-France, France
Au sein d’une équipe d’experts en sécurité cloud public, l’Expert Sécurité Cloud interviendra sur la sécurisation d’environnements multi-cloud (GCP, Azure et AWS). Il aura pour mission de définir et mettre en œuvre une stratégie IAM robuste, incluant la gestion des identités, des accès et des permissions conformément aux politiques de sécurité en vigueur. Il analysera les configurations existantes afin d’identifier les vulnérabilités et proposera des améliorations en s’appuyant sur les bonnes pratiques et des mécanismes de contrôle tels que les SCP AWS ou les Deny Policies GCP. Il participera également à l’automatisation des déploiements via Terraform et Python au sein de chaînes CI/CD, accompagnera les équipes projets sur les concepts et outils IAM, et contribuera à la documentation des processus et standards afin d’assurer la conformité et l’amélioration continue de la sécurité des environnements cloud.
Offre d'emploi
Architecte Data Azure / Databricks
xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Offre d'emploi
🚀 Développeur FullStack Python / Angular / .NET | Cloud Azure / AWS
Gentis Recruitment SAS
Publiée le
.NET
Angular
AWS Cloud
1 an
Nanterre, Île-de-France
Dans le cadre du développement et de l’évolution de plusieurs applications métiers, un grand groupe international recherche un Développeur FullStack Python / Angular / .NET pour renforcer une équipe existante. Le consultant interviendra au sein d’une équipe de développement composée de 10 à 12 personnes et participera aux différentes évolutions et maintenances des applications du périmètre. Les principales missions seront : Participer au développement FullStack des applications (front-end et back-end). Concevoir et développer des API et services applicatifs . Contribuer à la maintenance évolutive et corrective des solutions existantes. Participer aux revues de code et aux bonnes pratiques de développement. Collaborer avec les équipes techniques (développeurs, architectes, DevOps). Participer au déploiement et à l’exploitation des applications dans des environnements cloud. Les applications s’appuient notamment sur les technologies suivantes : C# / .NET Angular Python Cloud : Azure et AWS Bases de données SQL et NoSQL (SQL Server, PostgreSQL, CosmosDB, etc.) Une attention particulière est portée à la qualité du code , au respect des principes de Clean Code et aux pratiques de Software Craftsmanship .
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Offre d'emploi
Architecte / Tech Lead IA Python
TS-CONSULT
Publiée le
Azure
Tensorflow
1 an
Île-de-France, France
Bonjour a tous, Profil recherché : Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. Hard Skills : • 10 ans d'expérience minimum en développement Python avec une expérience confirmée en architecture de solutions IA/ML • Expérience significative en tant que Tech Lead IA avec accompagnement et montée en compétences d'équipes de développement • Expérience démontrée et expertise reconnue en vibe coding avec utilisation avancée d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Capacité à former et coacher les équipes sur les meilleures pratiques de développement assisté par IA • Expertise confirmée en architecture de solutions IA/ML et intégration de modèles d'intelligence artificielle en production • Maîtrise avancée de Python 3.8+ et des bonnes pratiques de développement • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers • Expérience confirmée avec les LLMs (fine-tuning, RAG, prompt engineering, agents IA, orchestration) • Maîtrise des frameworks modernes : FastAPI, LangChain/LlamaIndex, Streamlit/Gradio • Connaissance des architectures microservices, API REST/GraphQL, event-driven, architectures orientées données • Expérience des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud (SageMaker, Azure ML, Vertex AI, Bedrock) • Connaissance approfondie des technologies MLOps et pipelines CI/CD pour modèles IA • Maîtrise SQL et NoSQL, Vector Databases (Pinecone, Weaviate, Milvus) • Expertise en DevOps, automatisation des tests, conteneurisation (Docker/Kubernetes) • Expérience en data engineering et pipelines de données (Airflow, Spark, Kafka) • Connaissance des outils de versioning et collaboration (Git, GitLab/GitHub) • Un plus : Connaissance Java/Spring pour interactions avec legacy systems Soft Skills : • Excellentes capacités de leadership technique et de mentorat • Esprit critique développé face au code généré par IA et capacité à valider la qualité • Pédagogie et capacité à transmettre les bonnes pratiques du vibe coding à l'équipe • Esprit d'innovation et de veille technologique active sur l'IA • Rigueur dans la conception architecturale et les bonnes pratiques • Autonomie et force de proposition • Initiative dans la résolution de problèmes complexes • Très bon relationnel et capacité à communiquer avec différents interlocuteurs (techniques et métiers) • Esprit agile et pragmatique : équilibre entre vitesse et qualité • Capacité à fédérer une équipe autour d'une vision technique Anglais Courant.
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Offre d'emploi
DevSecOps Azure - Transformation
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps Azure pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité via Azure Policy et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur Azure et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Offre d'emploi
Architecte Cloud Azure - Migration
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Azure pour accompagner nos clients dans leurs projets de migration et de modernisation vers Microsoft Azure. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité, de coût et de résilience. Vous participerez à la conception de Landing Zones Azure, à la structuration des environnements multi-souscriptions et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform ou Bicep et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur Azure, en partageant des bonnes pratiques d’architecture et en facilitant l’acculturation au cloud.
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow
1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Architecte Cybersécurité Cloud & Identité
AGH CONSULTING
Publiée le
AWS Cloud
Azure
6 mois
400-600 €
Trappes, Île-de-France
Contexte Dans le cadre du renforcement de son dispositif cybersécurité, un grand groupe basé en Île-de-France recherche un Architecte Cybersécurité spécialisé en environnements Cloud et gestion des identités. Le poste peut être orienté : Build : cadrage, conception et transformation Run : gouvernance, amélioration continue et maintien en conditions opérationnelles Missions principalesArchitecture & sécurité Cloud Définir et faire évoluer les architectures de sécurité sur des environnements Cloud (AWS, Azure, GCP) Intégrer les exigences cybersécurité dans les projets de transformation Cloud Mettre en œuvre les principes Zero Trust Réaliser des analyses de risques et proposer des plans de remédiation Architecte Cybersécurité Cloud … Identité & gestion des accès (IAM / IGA / PAM) Structurer et formaliser les modèles d’identité et de gestion des accès Sécuriser les comptes à privilèges Déployer ou faire évoluer des solutions SSO, MFA et fédération d’identités Garantir la conformité des accès aux standards internes et réglementaires Architecte Cybersécurité Cloud … Gouvernance & conformité Accompagner les équipes projets sur les sujets cybersécurité Assurer l’alignement avec les normes et référentiels (ISO 27001, NIST, CIS, ANSSI, RGPD) Participer aux audits et démarches de conformité Contribuer à l’amélioration continue de la posture sécurité Architecte Cybersécurité Cloud … Sécurité & IA (selon profil) Comprendre les enjeux de sécurité liés aux usages d’IA Intégrer les exigences de sécurité dans les projets intégrant de l’IA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5814 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois