Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 38 résultats.
Offre premium
Freelance

Mission freelance
développeur dbt

Publiée le
DBT

12 mois
330-500 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Dans le cadre de la maintenance et des évolutions de notre produit BI, dans un contexte international, vous serez notamment amené à :  Participer activement au développement et à la maintenance du produit : o Création de la structure des objets de base de données o Analyse/création/modification des scripts d’alimentation ou de restitution avec python/dbt  Maintenir et faire évoluer l’environnement DBT  Garantir la cohérence d’ensemble des développements ELT  Mettre à jour la documentation techniques  Veiller à minimiser la dette technique, à optimiser et fiabiliser l’architecture existante  Mise en place de tests automatisés avec l’équipe de test en Pologne  Analyser les besoins métiers des différents projets  Travailler en étroite collaboration avec le reste de l’équipe data (Paris + Budapest), l’équipe de test basée à Varsovie et l’équipe de support basée à Riga Livrables Mission en régie, livrables en fonction des user stories développées.
Freelance

Mission freelance
Data Engineer DBT / Snowflake

Publiée le
DBT

3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Profil expérimenté DBT/Snowflake

Publiée le
AWS Cloud
DBT
Pandas

6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)

Publiée le
BigQuery
Data analysis
Data cleaning

6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)

Publiée le
BigQuery
DBT

3 ans
100-200 €
Maroc
Télétravail 100%
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Freelance

Mission freelance
BI & Analytics Engineer

Publiée le
DBT
SQL
Tableau Desktop

12 mois
400-410 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un BI & Analytics Engineer, pour le compte de l'un de ses clients qui opère dans le domaine du Sport. Description 🌍 Contexte de la mission L’équipe People Data accompagne le développement et l’épanouissement des collaborateurs à l’échelle mondiale. Elle joue un rôle clé dans la transformation et le développement des pratiques People Analytics , en lien étroit avec les équipes RH, Product et Data Engineering. Le BI Engineer & Analytics Engineer interviendra sur le périmètre Talent Development , pour créer, maintenir et optimiser des reportings et visualisations de données fiables et performants. 🧩 Missions principales Développer et automatiser des reportings et dashboards pour les équipes Talent Development sur un périmètre international. Consolider et réconcilier des données provenant de sources multiples. Assurer la qualité des données et des KPIs . Participer au cycle complet des projets, du cadrage à la livraison et au run des solutions. Conseiller sur la visualisation des KPIs et proposer des améliorations adaptées aux usages métiers. Documenter techniquement les solutions pour garantir un run efficace. Collaborer avec le collectif Data : BI Engineers, Product Managers, équipes métiers et data engineering. 🎯 Objectifs et livrables Dashboards et reportings automatisés et fiables. Modèles de données robustes et maintenables via dbt. Documentation technique et guides pour le run et la maintenance. Communication régulière sur l’avancement et les difficultés dans un cadre agile.
Freelance

Mission freelance
Data Engineer DBT

Publiée le
DBT

6 mois
400-550 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.
Freelance

Mission freelance
FREELANCE – Data Engineer Airflow (H/F)

Publiée le
Apache Airflow
AWS Cloud
DBT

6 mois
480-520 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail 100%
Notre client basé à Marseille (13) est à la recherche d’un Data Engineer Airflow (H/F) freelance dans le cadre du renforcement de leur expertise sur les data pipelines de leur plateforme. MISSIONS · Développement de data pipelines Airflow extract-loead · Développemlent de dag Airflow d’administration · Maintien et évolution du framework on-top d’Airflow · On boarding et support aux équipes projets utilisatrices de la plateforme · Industrialisation d’une offre Airflow/BDT-Core ENVIRONNEMENT TECHNIQUE · Airflow · Python · DBT · Snowflake · Git · AWS · Kubernetes
Freelance

Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)

Publiée le
Azure Data Factory
BI
Big Data

12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

38 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous