Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 30 résultats.
Suivant
Freelance

Mission freelance
Analytics Engineer Pricing

Cherry Pick
Publiée le
Apache Airflow
Databricks
DBT

12 mois
400-420 €
75000, Paris, Île-de-France

En quelques mots Cherry Pick est à la recherche d'un "Analytics Engineer Pricing" pour un client dans le secteur du commerce de détails Description🎯 Contexte & Objectifs Dans le cadre de l’initiative stratégique Pricing Excellence, l’entreprise déploie une approche globale de Revenue Growth Management (RGM) visant à définir un juste prix pour les consommateurs, en conciliant coûts, perception client et rentabilité. Le/la consultant.e rejoindra l’équipe dédiée au Pricing Excellence, composée d’experts en data, pricing et IA, pour industrialiser la couche “insights” et fournir des datasets fiables et robustes destinés aux dashboards, modèles IA et analyses avancées. 🛠️ Missions principales Automatiser et industrialiser les pipelines de données (dashboards, IA, data analysis). Construire et modéliser la semantic layer dédiée au pricing. Définir et optimiser la stack technique et les standards d’industrialisation. Maintenir, améliorer et adapter les datasets existants pour couvrir de nouveaux use cases. Garantir la qualité, robustesse et pertinence des données exposées. Contribuer activement à la communauté Analytics Engineers et diffuser les bonnes pratiques. ✅ Compétences requisesTechniques dbt – Expert Git – Expert Databricks – Avancé Apache Airflow – Confirmé CI/CD – Confirmé Méthodologies & Soft Skills Solide expérience en industrialisation de pipelines data. Bonne compréhension des enjeux DataOps / Analytics Engineering. Esprit collaboratif, communication claire, force de proposition. Rigueur et autonomie dans la gestion des livrables. Langues Anglais courant (environnement international).

Freelance

Mission freelance
Data Engineer (GCP / Python / DBT)

ESENCA
Publiée le
Apache Kafka
API
Flask

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Freelance

Mission freelance
Chef de projet Data / BI

Sapiens Group
Publiée le
DBT
ETL (Extract-transform-load)

6 mois
450-560 €
Nord, France

Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Freelance

Mission freelance
Expert Snowflake / DBT – Data Platform Architect

Signe +
Publiée le
Snowflake

8 mois
400-600 €
Paris, France

Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

CDI

Offre d'emploi
Data Engineer - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Tech Lead Snowflake / DBT

MLMCONSEIL
Publiée le
DBT
Snowflake
SQL

1 an
380-550 €
Paris, France

Nous recherchons un Tech Lead Snowflake / DBT pour piloter les aspects techniques de la plateforme data en collaboration avec l’équipe Data Factory de notre client. Niveau d'anglais requis : courant Bonne compréhension des enjeux métier liés à la data Capacité à arbitrer et aligner les choix techniques avec les besoins fonctionnels Collaboration transverse avec les équipes CDP et Data Factory ... .... ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... ..

Freelance

Mission freelance
Chef de Projet Data

CAT-AMANIA
Publiée le
DBT
Google Cloud Platform (GCP)
ODI Oracle Data Integrator

1 an
100-450 €
Lille, Hauts-de-France

Dans le cadre de la modernisation et de l’industrialisation de notre plateforme Data et de nos applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : • Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences • Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration Livrables attendus • Documents de cadrage et de pilotage projet • Support de comités • Operating Model • Ensemble des livrables attendus dans le cadre d’un projet (CDC, Spécification, Dossier technique)

Freelance

Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI

CHOURAK CONSULTING
Publiée le
DBT
Google Cloud Platform (GCP)
Microsoft Power BI

3 mois
100-600 €
Paris, France

Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.

Freelance

Mission freelance
Data Engineers – ServiceNow / Snowflake

HIGHTEAM
Publiée le
DBT
ServiceNow
Snowflake

3 ans
500-600 €
Île-de-France, France

Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Azure DevOps
BigQuery
DBT

3 ans
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
DATA ENGINEER DBT/FABRIC

PARTECK INGENIERIE
Publiée le
DBT
Microsoft Fabric

6 mois
400-580 €
Paris, France

DATA ENGINEER DBT / FABRIC 3/7 ans d’Exp Pour un client dans le domaine du Retail Le client recherche un Data Engineer dans le cadre de la mise en place d'un projet ambitieux autours de la DATA. le Data engineer devra avoir une culture du Software Engineering. Maitrise de DBT et Fabric Bonne maitrise de la CI/CD ( GitAction, Outils CI moderne ) Plateforme AZURE DEVOPS / Automatisation. Anglais conversationnel indispensable ( La PO est anglophone ) Lieu : 75 / Durée : 6 mois/ Dispo : ASAP / Remote 2 jours par semaine / Anglais indispensable

Freelance
CDI

Offre d'emploi
Data Engineer

Ipanema Technology
Publiée le
DBT
Microsoft Fabric

6 mois
40k-69k €
400-710 €
Paris, France

En tant que Data Engineer expert, vous intégrerez une équipe dynamique et serez un acteur clé dans la mise en place et l'évolution d'une plateforme Data performante. Vos missions principales incluront : La conception, le développement et la maintenance de pipelines de données robustes et scalables. L'expertise et l'utilisation avancée de DBT pour la transformation et la modélisation des données. La participation active à la construction et à l'optimisation de l'architecture Data Platform (orientée BigQuery, Snowflake, etc.). L'intégration et la gestion des données provenant de différentes sources. L'application des meilleures pratiques de Software Engineering dans le développement Data. La mise en place et l'amélioration continue de l'intégration et du déploiement continus (CI/CD) via des outils modernes comme GitAction et AZURE DEVOPS. La contribution à l'automatisation des processus. La collaboration étroite avec les équipes métiers et techniques, y compris une Product Owner anglophone.

Freelance

Mission freelance
Data Engineer DBT & MS Fabric

KUBE Partners S.L. / Pixie Services
Publiée le
DBT
Microsoft Fabric

6 mois
Paris, France

Je recherche un Data Engineer maitrisant DBT & MS Fabric dans le cadre d’un projet stratégique autour de la DATA. Missions principales : ➡️ Développement de pipelines via DBT et Microsoft Fabric ➡️ Intégration continue / déploiement via Azure DevOps, GitHub ➡️ Automatisation des workflows Data ➡️ Collaboration avec des équipes internationales ➡️ Garantir la qualité, la traçabilité et la performance des traitements de données ➡️ Intégrer les bonnes pratiques de Software Engineering dans les projets Data (tests, documentation, versioning, etc.) ➡️ Assurer un reporting régulier sur l’avancement des tâches

Freelance
CDI

Offre d'emploi
DATA ENGINEER DATAMARTS F/H | NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
BI
Business Object
DBT

3 ans
10k-45k €
100-400 €
Nantes, Pays de la Loire

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur l'alimentation des datamarts. A ce titre, vous serez en charge de : Comprendre l’activité et les attentes des utilisateurs, en lien avec la MOA et les équipes métiers. Appréhender le SI de production et échanger avec les équipes techniques pour assurer une bonne intégration des solutions. Structurer les données via des modèles adaptés (ex : schéma en étoile, tables de dimensions). Développer des traitements d’alimentation Concevoir et modéliser des schémas de données. Créer et alimentation des datamarts (ex : via DBT). Mettre en place de processus CDC. Gérer les anomalies et assurer la maintenance Accompagner les équipes métiers et rédiger la documentation technique. Environnement Technique : Business Object, BI, Semarchy, Talend, AWS, Amazon RedShift, PySpark, SQL, Power Designer Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Freelance

Mission freelance
Data Engineer ServiceNow / Snowflake

HIGHTEAM
Publiée le
Apache Airflow
Data analysis
DBT

3 ans
500-600 €
Île-de-France, France

Dans le cadre d’un projet stratégique d’exploitation des données ITSM, nous recherchons un Data Engineer expérimenté pour concevoir et automatiser une pipeline d’ingestion de données depuis ServiceNow vers Snowflake , au service de plusieurs départements (IT, qualité, opérations, gouvernance…). Objectifs & Responsabilités Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules suivants : Concevoir une pipeline d’ingestion automatisée (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire et réutilisable Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (Data Warehouse Cloud) Orchestration : Airflow (ou équivalent à définir) Transformation : DBT Core / SQL Modélisation : DrawIO ou outil libre équivalent Visualisation : Tableau CI/CD / Versioning : GitLab Documentation & Gestion de projet : Confluence, Jira

Suivant
30 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous