
Le poste đ Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE
Partager cette offre
Vous serez responsable de la conception et de lâarchitecture de bout en bout des solutions Data et analytiques au sein dâun ou plusieurs value streams.
Votre rĂŽle est de traduire les besoins mĂ©tier en solutions de donnĂ©es sĂ©curisĂ©es, scalables et optimisĂ©es, basĂ©es sur notre plateforme dâentreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complÚtes : ingestion batch et streaming, entrepÎt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modÚles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
GĂ©rer la couche sĂ©mantique et les mĂ©triques, gouverner les KPIs, optimiser la performance des tableaux de bord et requĂȘtes (caching, agrĂ©gats).
Favoriser lâautonomie des utilisateurs via dbt, une couche de mĂ©triques et un catalogue de donnĂ©es.
Ops & FinOps
Définir et suivre les SLOs (fraßcheur, latence, coût).
Mettre en place lâobservabilitĂ©, les runbooks et les stratĂ©gies de backfill.
Optimiser le stockage et les requĂȘtes pour maĂźtriser les coĂ»ts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 Ă 12 ans dâexpĂ©rience en data engineering / data architecture avec une maĂźtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maßtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
ModÚle sémantique et arbre de KPI.
Runbooks / SLOs et modÚle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprÚs du management.
Minimum 7 ans dâexpĂ©rience en dĂ©veloppement logiciel, dont 3 ans en leadership technique.
ExpĂ©rience confirmĂ©e dans la conception et la mise en Ćuvre de plateformes data ou analytiques Ă grande Ă©chelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maßtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou dâinfrastructures AI/ML est un atout majeur
Profil recherché
Vous serez responsable de la conception et de lâarchitecture de bout en bout des solutions Data et analytiques au sein dâun ou plusieurs value streams.
Votre rĂŽle est de traduire les besoins mĂ©tier en solutions de donnĂ©es sĂ©curisĂ©es, scalables et optimisĂ©es, basĂ©es sur notre plateforme dâentreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complÚtes : ingestion batch et streaming, entrepÎt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modÚles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
GĂ©rer la couche sĂ©mantique et les mĂ©triques, gouverner les KPIs, optimiser la performance des tableaux de bord et requĂȘtes (caching, agrĂ©gats).
Favoriser lâautonomie des utilisateurs via dbt, une couche de mĂ©triques et un catalogue de donnĂ©es.
Ops & FinOps
Définir et suivre les SLOs (fraßcheur, latence, coût).
Mettre en place lâobservabilitĂ©, les runbooks et les stratĂ©gies de backfill.
Optimiser le stockage et les requĂȘtes pour maĂźtriser les coĂ»ts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 Ă 12 ans dâexpĂ©rience en data engineering / data architecture avec une maĂźtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maßtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
ModÚle sémantique et arbre de KPI.
Runbooks / SLOs et modÚle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprÚs du management.
Minimum 7 ans dâexpĂ©rience en dĂ©veloppement logiciel, dont 3 ans en leadership technique.
ExpĂ©rience confirmĂ©e dans la conception et la mise en Ćuvre de plateformes data ou analytiques Ă grande Ă©chelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maßtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou dâinfrastructures AI/ML est un atout majeur
Environnement de travail
Vous serez responsable de la conception et de lâarchitecture de bout en bout des solutions Data et analytiques au sein dâun ou plusieurs value streams.
Votre rĂŽle est de traduire les besoins mĂ©tier en solutions de donnĂ©es sĂ©curisĂ©es, scalables et optimisĂ©es, basĂ©es sur notre plateforme dâentreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture & Design
Concevoir des architectures de données complÚtes : ingestion batch et streaming, entrepÎt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modÚles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI & Analytics
GĂ©rer la couche sĂ©mantique et les mĂ©triques, gouverner les KPIs, optimiser la performance des tableaux de bord et requĂȘtes (caching, agrĂ©gats).
Favoriser lâautonomie des utilisateurs via dbt, une couche de mĂ©triques et un catalogue de donnĂ©es.
Ops & FinOps
Définir et suivre les SLOs (fraßcheur, latence, coût).
Mettre en place lâobservabilitĂ©, les runbooks et les stratĂ©gies de backfill.
Optimiser le stockage et les requĂȘtes pour maĂźtriser les coĂ»ts.
Gouvernance & Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
7 Ă 12 ans dâexpĂ©rience en data engineering / data architecture avec une maĂźtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maßtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
Architecture one-pager et data contracts.
ADRs et HLD (High Level Design).
ModÚle sémantique et arbre de KPI.
Runbooks / SLOs et modÚle de coût.
Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprÚs du management.
Minimum 7 ans dâexpĂ©rience en dĂ©veloppement logiciel, dont 3 ans en leadership technique.
ExpĂ©rience confirmĂ©e dans la conception et la mise en Ćuvre de plateformes data ou analytiques Ă grande Ă©chelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maßtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou dâinfrastructures AI/ML est un atout majeur
Postulez Ă cette offre !
Trouvez votre prochaine mission parmi +8âŻ000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critÚres importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthĂšque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
đ Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE
ADJAS