L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 291 résultats.
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Consultant Fonctionnel ERP – Dynamics 365 Finance (F&O / AX)
Inspiire
Publiée le
Microsoft Dynamics
24 mois
40k-45k €
400-420 €
Paris, France
📌 Informations pratiques : 📆 Durée : 12 mois, reconductible 🚀 Date de démarrage : 12/01/2026 📄 Type de contrat : CDI ou freelance 🏠 Télétravail : 2 jours / semaine 📍 Localisation : 75 💶 Budget : 400-420 €/jour max 🧩 Contexte : Vous rejoindrez la direction financière d’un grand groupe international au sein d’une équipe en charge des solutions ERP. Dans le cadre d’un programme de transformation et d’harmonisation des outils Finance, le groupe déploie progressivement Dynamics 365 Finance (F&O) / Dynamics AX auprès de nouvelles entités, dans un contexte d’acquisitions régulières et de montée en maturité des processus. Au sein de l’équipe, vous interviendrez comme consultant fonctionnel ERP pour accompagner les déploiements, assurer le support de niveau 2 et contribuer à l’amélioration continue du Core Model Finance. 🛠️ Missions principales : - Assurer le support fonctionnel sur le périmètre Dynamics 365 Finance / Dynamics AX : - Suivi des tickets, qualification et affectation - Prise en charge du support de niveau 2 avant escalade aux tiers - Assistance aux utilisateurs finaux et key users (ateliers, explications, clarifications) - Préparer et maintenir la documentation : - Rédaction / mise à jour de guides utilisateurs et supports de formation - Contribution à la base de connaissances et au partage de bonnes pratiques au sein de l’équipe - Accompagner les déploiements de l’ERP dans de nouvelles entités : - Participation aux ateliers de cadrage fonctionnel - Validation des besoins exprimés par les key users (GL, AP, AR, Procurement) - Contribution aux campagnes de tests (scénarios, exécution, suivi des anomalies) - Participer aux montées de version et releases Microsoft : - Préparation et coordination des plans de tests - Suivi des impacts fonctionnels - Coordination avec les équipes IT Groupe sur les sujets d’architecture / infrastructure - Contribuer à l’amélioration continue : - Recueil des demandes d’évolutions auprès des key users - Revue et validation des besoins en tant que « gate keeper » du Core Model - Proposition et mise en œuvre d’améliorations et d’automatisations dans l’ERP - Contribution à la production de rapports et d’analyses via des outils de type Atlas / Power BI 💻 Environnement technique et fonctionnel : - ERP : Dynamics 365 Finance & Operations / Dynamics AX - Domaines fonctionnels : comptabilité générale (GL), fournisseurs / achats (AP & Procurement), clients (AR) - Reporting : Atlas, Power BI ou outils équivalents - Contexte : environnement international, multi-entités, équipe Finance / IT centrale 👤 Profil recherché : - 3 à 6 ans d’expérience en tant que consultant fonctionnel ERP, idéalement autour de Dynamics 365 Finance / Dynamics AX - Expérience concrète sur des projets ERP couvrant a minima les domaines GL, AP, Procurement et AR - Bonne compréhension de l’organisation d’une direction financière et des rôles associés (comptabilité générale, fournisseurs, clients, contrôle, achats…) - Aisance dans la relation avec les key users et les équipes IT : capacité à écouter, reformuler, challenger et prioriser - Rigueur, fiabilité, autonomie et sens du travail en équipe - Capacité à documenter clairement les processus, solutions et décisions - Français courant et anglais courant (oral et écrit) pour évoluer dans un environnement international
Mission freelance
Consultant Expert Adobe Campaign H/F
OUICODING
Publiée le
1 mois
420-900 €
Courbevoie, Île-de-France
Votre rôle sera central dans l'exécution technique des campagnes et l'évolution de la plateforme : -Développement & Data : Création de requêtes de ciblage complexes, automatisation de workflows (JS serveur/SQL) et extension de schémas de données (XML). -Intégration & Écosystème : Connexion de la plateforme aux outils tiers (CRM Salesforce, Web via API SOAP/REST) et interface avec le Data Lake (compréhension des flux ETL via Talend). -Expérience Client : Création de templates d'emails robustes (HTML/CSS responsive) et déploiement de scénarios automatisés (Panier abandonné, Welcome pack, etc.). -Gouvernance : Garantir la délivrabilité, le respect du RGPD et la gestion de la pression commerciale.
Offre d'emploi
Data Quality Analyst / Analyste Qualité des Données
AEROW
Publiée le
Microsoft Excel
Python
SAP ECC6
6 mois
40k-50k €
400-550 €
Liège, Belgique
La qualité des données constitue un prérequis essentiel à l’exploitation efficace de ces nouveaux outils et à la réalisation des bénéfices attendus. Dans ce contexte, le Data Quality Analyst joue un rôle central dans l’amélioration continue des données clés, dans le cadre de la gouvernance de données mise en place chez RESA. Le poste est rattaché au coordinateur de l’équipe AI & Data Governance , qui apporte le support et l’alignement stratégique nécessaires. Garantir, améliorer et pérenniser la qualité des données critiques utilisées par les solutions Smart Grid et Data & AI, afin de soutenir les enjeux métiers et stratégiques de RESA. Responsabilités Détecter de manière proactive les problèmes de qualité des données Analyser et qualifier les anomalies de données Réaliser des analyses de causes racines (Root Cause Analysis) afin d’identifier l’origine des problèmes Proposer et recommander des pistes de résolution adaptées et durables Documenter les règles de qualité des données, les résultats des contrôles et le suivi des écarts Mettre en œuvre ou contribuer aux actions correctrices en collaboration avec les équipes concernées Former et sensibiliser les producteurs de données aux bonnes pratiques de gestion de la qualité des données Contribuer à l’instauration d’une culture de la qualité de la donnée au sein de l’organisation Participer à la gouvernance des données et à l’amélioration continue des processus associés Assurer une veille technologique sur les outils et pratiques liés à la qualité des données
Mission freelance
Consultant IFS Cloud Finance & Intégration ou Consultant ERP IFS / E-invoicing
UTALENT
Publiée le
Finance
IFS Cloud
6 mois
France
On recherche un profil Consultant Fonctionnel/Technique IFS Cloud avec une forte composante intégration: Compétences IFS Cloud : Module Finance IFS Cloud (comptabilité fournisseurs/clients) Module IFS Connect (flux d'échange, connecteurs) Idéalement : expérience sur le module E-invoice ou facturation électronique dans IFS Intégration & API : Développement et consommation d'API REST Expérience avec un ESB (Boomi est un vrai plus, sinon MuleSoft, Talend, etc.) Connaissance des flux EDI/XML/JSON Compétences fortement souhaitées Connaissance du cadre réglementaire facturation électronique française (réforme 2026, PDP, PPF, Chorus Pro) Expérience avec un PDP (Flowie, Chorus, Yooz, Basware…) Notions de Master Data Management Environnement industriel (manufacturing, supply chain)
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes. Profil recherché :
Mission freelance
Consultant développement et support ESB Boomi
CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity
1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte
Mission freelance
Expert Sécurité : Data & AI
EMGS GROUP
Publiée le
Microsoft Copilot Studio
AI
Azure
1 an
600-650 €
Paris, France
Nous sommes à a recherche d'un Security Expert intervient sur la cybersécurité des services et plateformes IA développés et opérés par les équipes Data & Analytics. Une expertise en intelligence artificielle (usages, architectures, gestion des risques, Copilot, agents IA) ainsi qu’une maîtrise des technologies Microsoft Azure (PaaS & IaaS) sont indispensables. Objectifs et missions 1. Sécurisation des projets (Secure the build) Accompagner les équipes projets dans l’intégration des exigences de sécurité dès la conception Apporter un support aux responsables sécurité métiers sur les sujets liés à la Data & Analytics 2. Sécurité opérationnelle Garantir la conformité continue en matière de cybersécurité (plans de remédiation, amélioration continue, reporting périodique) Renforcer la culture sécurité des parties prenantes via des actions de sensibilisation et de formation Assurer la gestion des incidents de cybersécurité et contribuer à la résolution des incidents majeurs ou situations de crise 3. Amélioration continue de la sécurité Piloter la standardisation de la sécurité en définissant et en promouvant les règles, normes et référentiels de sécurité
Mission freelance
Data Scientist – Data / IA (F/H)
CELAD
Publiée le
1 an
450-480 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Envie de contribuer à la stratégie Data & IA d’un grand groupe bancaire ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un acteur majeur du secteur bancaire, nous recherchons un.e Data Scientist – Data / IA pour intervenir en régie au sein du service Data Management & Intelligence Artificielle. Voici un aperçu détaillé de vos missions : - Recueillir et qualifier les besoins métiers - Transformer des problématiques bancaires en cas d’usage Data / IA - Concevoir, développer et industrialiser des modèles avancés - Réaliser les différentes phases d’un projet DS : Data préparation, Modélisation (ML, DL, LLM), Data visualisation, Monitoring - Déploiement et exploitation de LLM, agents et assistants - Accompagnement des métiers dans la rédaction de prompts - Participation à l’industrialisation des cas d’usage IA - Contribution à la mise en place de l’environnement technique (notamment sous GCP) - Participation à la Maintenance en Condition Opérationnelle des cas d’usage DS/IA - Priorisation et gestion du backlog MCO - Animation d’ateliers Data / IA - Actions d’acculturation auprès des directions métiers - Coaching d’étudiants sur des POC - Vulgarisation des sujets IA auprès de publics non techniques
Mission freelance
Data Mesh Platform Manager (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-650 €
92400, Saint-Germain-en-Laye, Île-de-France
Le rôle de Data Mesh Platform Manager est à la fois stratégique et opérationnel, visant à concevoir, construire, déployer et exploiter la plateforme Data Mesh du groupe. L'objectif principal de ce poste est d'assurer la livraison technique, de garantir l'adoption par les domaines métiers, d'atteindre l'excellence opérationnelle et de favoriser l'amélioration continue. Responsabilités : Architecture et construction de la plateforme : data products, pipelines, gouvernance, observabilité, accès self-service Gestion cloud/hybride : AWS, Azure, intégration on-premise, sécurité, automatisation et Infrastructure as Code Gestion de la livraison : backlog, priorisation, releases, suivi SLA, performance et fiabilité Déploiement et adoption par les domaines métiers : onboarding, enablement, formation et métriques d’usage Product management et amélioration continue : vision produit, KPIs, feedback utilisateurs et roadmap évolutive Documentation, standardisation et gouvernance : compliance, bonnes pratiques, catalogue et métadonnées Communication et reporting : dashboards, présentations exécutives, suivi décisions/risques Promotion interne : valorisation de la plateforme, animation de la communauté et démonstrations Must Haves : 15+ ans d'expérience en data platform, data engineering ou architecture, avec expérience pratique Data Mesh Compétences techniques en architecture distribuée, systèmes distribués, DevOps/DataOps Expérience en pipelines et orchestrations, gouvernance, observabilité Maîtrise des cloud AWS/Azure Nice to Have : Soft skills : leadership technique et opérationnel Pragmatisme et communication cross-fonctionnelle Pensée stratégique et influence sans autorité D'autres détails : Indicateurs de succès : adoption et usage de la plateforme, qualité et nombre de data products, fiabilité, performance, satisfaction utilisateurs et réduction du time-to-market
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3291 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois