ADJAS

Job Vacancy 🚀 Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE

Vélizy-Villacoublay (78)

ADJAS

Job position

Contractor
Permanent
As soon as possible
1 year
5 to 10 years experience
Hybrid
Vélizy-Villacoublay, Ile-de-France
Published on 09/10/2025

Share this job

🎯 Votre mission

Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).

Architecture & Design

  • Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.

  • Intégrer des flux ML et des features stores lorsque nécessaire.

Modélisation

  • Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).

BI & Analytics

  • Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).

  • Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.

Ops & FinOps

  • Définir et suivre les SLOs (fraîcheur, latence, coût).

  • Mettre en place l’observabilité, les runbooks et les stratégies de backfill.

  • Optimiser le stockage et les requêtes pour maîtriser les coûts.

Gouvernance & Data Mesh

  • Gérer la documentation, la découvrabilité et les métadonnées produits.

  • Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.

🛠️ Compétences techniques indispensables
  • 7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).

  • Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.

  • Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.

  • Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.

🧭 Livrables clés
  • Architecture one-pager et data contracts.

  • ADRs et HLD (High Level Design).

  • Modèle sémantique et arbre de KPI.

  • Runbooks / SLOs et modèle de coût.

🤝 Gestion des parties prenantes
  • Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.

  • Présenter les avancements, jalons et défis techniques auprès du management.

🎓 Profil recherché
  • Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.

  • Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.

  • Bonne compréhension des architectures cloud et API-driven.

  • Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).

  • Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).

  • La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur

Candidate profile

🎯 Votre mission

Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).

Architecture & Design

  • Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.

  • Intégrer des flux ML et des features stores lorsque nécessaire.

Modélisation

  • Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).

BI & Analytics

  • Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).

  • Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.

Ops & FinOps

  • Définir et suivre les SLOs (fraîcheur, latence, coût).

  • Mettre en place l’observabilité, les runbooks et les stratégies de backfill.

  • Optimiser le stockage et les requêtes pour maîtriser les coûts.

Gouvernance & Data Mesh

  • Gérer la documentation, la découvrabilité et les métadonnées produits.

  • Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.

🛠️ Compétences techniques indispensables
  • 7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).

  • Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.

  • Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.

  • Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.

🧭 Livrables clés
  • Architecture one-pager et data contracts.

  • ADRs et HLD (High Level Design).

  • Modèle sémantique et arbre de KPI.

  • Runbooks / SLOs et modèle de coût.

🤝 Gestion des parties prenantes
  • Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.

  • Présenter les avancements, jalons et défis techniques auprès du management.

🎓 Profil recherché
  • Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.

  • Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.

  • Bonne compréhension des architectures cloud et API-driven.

  • Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).

  • Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).

  • La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur

Working environment

🎯 Votre mission

Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).

Architecture & Design

  • Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.

  • Intégrer des flux ML et des features stores lorsque nécessaire.

Modélisation

  • Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).

BI & Analytics

  • Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).

  • Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.

Ops & FinOps

  • Définir et suivre les SLOs (fraîcheur, latence, coût).

  • Mettre en place l’observabilité, les runbooks et les stratégies de backfill.

  • Optimiser le stockage et les requêtes pour maîtriser les coûts.

Gouvernance & Data Mesh

  • Gérer la documentation, la découvrabilité et les métadonnées produits.

  • Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.

🛠️ Compétences techniques indispensables
  • 7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).

  • Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.

  • Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.

  • Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.

🧭 Livrables clés
  • Architecture one-pager et data contracts.

  • ADRs et HLD (High Level Design).

  • Modèle sémantique et arbre de KPI.

  • Runbooks / SLOs et modèle de coût.

🤝 Gestion des parties prenantes
  • Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.

  • Présenter les avancements, jalons et défis techniques auprès du management.

🎓 Profil recherché
  • Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique.

  • Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle.

  • Bonne compréhension des architectures cloud et API-driven.

  • Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).

  • Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).

  • La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur

Rueil-Malmaison, Île-de-France
< 20 employees
Consultancy firm
Adjas s'engage résolument à répondre aux impératifs de transformation numérique de ses partenaires d'entreprise. Grâce à nos équipes d'experts spécialisés dans les domaines du Cloud et de l'environnement DevOps, Adjas assure un accompagnement et des conseils personnalisés à chaque partenaire, du stade initial du projet jusqu'à sa concrétisation. Nous proposons un service clé en main visant à permettre à chaque acteur de s'adapter rapidement aux évolutions de leur marché et leur activité. Adjas en tant qu'entreprise à dimension humaine, s'engage résolument à guider ses consultants dans le développement de leurs compétences grâce à une diversité de formations en cloud et avec les outils devops. Notre organisation, au-delà de la dimension technologique, repose sur des structures autonomes à taille humaine, favorisant le partage des connaissances, l'évolution des compétences, la convivialité et la proximité du management. Ces valeurs sont au cœur de nos réalisations et ont contribué à notre développement continu permettant ainsi de personnaliser notre expertise auprès de nos partenaires

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

🚀 Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE

ADJAS

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us