
Job position 🚀 Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE
Share this job
Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).
Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.
Ops & FinOps
Définir et suivre les SLOs (fraîcheur, latence, coût).
Mettre en place l’observabilité, les runbooks et les stratégies de backfill.
Optimiser le stockage et les requêtes pour maîtriser les coûts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
Modèle sémantique et arbre de KPI.
Runbooks / SLOs et modèle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprès du management.
Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.
Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur
Candidate profile
Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).
Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.
Ops & FinOps
Définir et suivre les SLOs (fraîcheur, latence, coût).
Mettre en place l’observabilité, les runbooks et les stratégies de backfill.
Optimiser le stockage et les requêtes pour maîtriser les coûts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
Modèle sémantique et arbre de KPI.
Runbooks / SLOs et modèle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprès du management.
Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.
Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur
Working environment
Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).
Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.
Ops & FinOps
Définir et suivre les SLOs (fraîcheur, latence, coût).
Mettre en place l’observabilité, les runbooks et les stratégies de backfill.
Optimiser le stockage et les requêtes pour maîtriser les coûts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
Modèle sémantique et arbre de KPI.
Runbooks / SLOs et modèle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprès du management.
Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.
Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
🚀 Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE
ADJAS