Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Mission freelance
Analytics Engineer Pricing
En quelques mots Cherry Pick est à la recherche d'un "Analytics Engineer Pricing" pour un client dans le secteur du commerce de détails Description🎯 Contexte & Objectifs Dans le cadre de l’initiative stratégique Pricing Excellence, l’entreprise déploie une approche globale de Revenue Growth Management (RGM) visant à définir un juste prix pour les consommateurs, en conciliant coûts, perception client et rentabilité. Le/la consultant.e rejoindra l’équipe dédiée au Pricing Excellence, composée d’experts en data, pricing et IA, pour industrialiser la couche “insights” et fournir des datasets fiables et robustes destinés aux dashboards, modèles IA et analyses avancées. 🛠️ Missions principales Automatiser et industrialiser les pipelines de données (dashboards, IA, data analysis). Construire et modéliser la semantic layer dédiée au pricing. Définir et optimiser la stack technique et les standards d’industrialisation. Maintenir, améliorer et adapter les datasets existants pour couvrir de nouveaux use cases. Garantir la qualité, robustesse et pertinence des données exposées. Contribuer activement à la communauté Analytics Engineers et diffuser les bonnes pratiques. ✅ Compétences requisesTechniques dbt – Expert Git – Expert Databricks – Avancé Apache Airflow – Confirmé CI/CD – Confirmé Méthodologies & Soft Skills Solide expérience en industrialisation de pipelines data. Bonne compréhension des enjeux DataOps / Analytics Engineering. Esprit collaboratif, communication claire, force de proposition. Rigueur et autonomie dans la gestion des livrables. Langues Anglais courant (environnement international).

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Mission freelance
Chef de projet Data / BI
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Mission freelance
Expert Snowflake / DBT – Data Platform Architect
Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Mission freelance
Tech Lead Snowflake / DBT
Nous recherchons un Tech Lead Snowflake / DBT pour piloter les aspects techniques de la plateforme data en collaboration avec l’équipe Data Factory de notre client. Niveau d'anglais requis : courant Bonne compréhension des enjeux métier liés à la data Capacité à arbitrer et aligner les choix techniques avec les besoins fonctionnels Collaboration transverse avec les équipes CDP et Data Factory ... .... ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... ..

Mission freelance
Chef de Projet Data
Dans le cadre de la modernisation et de l’industrialisation de notre plateforme Data et de nos applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : • Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences • Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration Livrables attendus • Documents de cadrage et de pilotage projet • Support de comités • Operating Model • Ensemble des livrables attendus dans le cadre d’un projet (CDC, Spécification, Dossier technique)
Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.

Mission freelance
Data Engineers – ServiceNow / Snowflake
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues
Mission freelance
DATA ENGINEER DBT/FABRIC
DATA ENGINEER DBT / FABRIC 3/7 ans d’Exp Pour un client dans le domaine du Retail Le client recherche un Data Engineer dans le cadre de la mise en place d'un projet ambitieux autours de la DATA. le Data engineer devra avoir une culture du Software Engineering. Maitrise de DBT et Fabric Bonne maitrise de la CI/CD ( GitAction, Outils CI moderne ) Plateforme AZURE DEVOPS / Automatisation. Anglais conversationnel indispensable ( La PO est anglophone ) Lieu : 75 / Durée : 6 mois/ Dispo : ASAP / Remote 2 jours par semaine / Anglais indispensable
Offre d'emploi
Data Engineer
En tant que Data Engineer expert, vous intégrerez une équipe dynamique et serez un acteur clé dans la mise en place et l'évolution d'une plateforme Data performante. Vos missions principales incluront : La conception, le développement et la maintenance de pipelines de données robustes et scalables. L'expertise et l'utilisation avancée de DBT pour la transformation et la modélisation des données. La participation active à la construction et à l'optimisation de l'architecture Data Platform (orientée BigQuery, Snowflake, etc.). L'intégration et la gestion des données provenant de différentes sources. L'application des meilleures pratiques de Software Engineering dans le développement Data. La mise en place et l'amélioration continue de l'intégration et du déploiement continus (CI/CD) via des outils modernes comme GitAction et AZURE DEVOPS. La contribution à l'automatisation des processus. La collaboration étroite avec les équipes métiers et techniques, y compris une Product Owner anglophone.

Mission freelance
Data Engineer DBT & MS Fabric
Je recherche un Data Engineer maitrisant DBT & MS Fabric dans le cadre d’un projet stratégique autour de la DATA. Missions principales : ➡️ Développement de pipelines via DBT et Microsoft Fabric ➡️ Intégration continue / déploiement via Azure DevOps, GitHub ➡️ Automatisation des workflows Data ➡️ Collaboration avec des équipes internationales ➡️ Garantir la qualité, la traçabilité et la performance des traitements de données ➡️ Intégrer les bonnes pratiques de Software Engineering dans les projets Data (tests, documentation, versioning, etc.) ➡️ Assurer un reporting régulier sur l’avancement des tâches

Offre d'emploi
DATA ENGINEER DATAMARTS F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur l'alimentation des datamarts. A ce titre, vous serez en charge de : Comprendre l’activité et les attentes des utilisateurs, en lien avec la MOA et les équipes métiers. Appréhender le SI de production et échanger avec les équipes techniques pour assurer une bonne intégration des solutions. Structurer les données via des modèles adaptés (ex : schéma en étoile, tables de dimensions). Développer des traitements d’alimentation Concevoir et modéliser des schémas de données. Créer et alimentation des datamarts (ex : via DBT). Mettre en place de processus CDC. Gérer les anomalies et assurer la maintenance Accompagner les équipes métiers et rédiger la documentation technique. Environnement Technique : Business Object, BI, Semarchy, Talend, AWS, Amazon RedShift, PySpark, SQL, Power Designer Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Mission freelance
Data Engineer ServiceNow / Snowflake
Dans le cadre d’un projet stratégique d’exploitation des données ITSM, nous recherchons un Data Engineer expérimenté pour concevoir et automatiser une pipeline d’ingestion de données depuis ServiceNow vers Snowflake , au service de plusieurs départements (IT, qualité, opérations, gouvernance…). Objectifs & Responsabilités Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules suivants : Concevoir une pipeline d’ingestion automatisée (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire et réutilisable Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (Data Warehouse Cloud) Orchestration : Airflow (ou équivalent à définir) Transformation : DBT Core / SQL Modélisation : DrawIO ou outil libre équivalent Visualisation : Tableau CI/CD / Versioning : GitLab Documentation & Gestion de projet : Confluence, Jira
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.