Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 59 résultats.
Freelance

Mission freelance
DATA ENGINEER GCP

PARTECK INGENIERIE
Publiée le
BigQuery
DBT
Docker

6 mois
400-540 €
Hauts-de-Seine, France
Data Engineer Senior – Plateforme Data & IA Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative. Missions principales Concevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources. Participer à la mise en place de l’architecture Data sur environnement cloud GCP. Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation. Préparer et structurer les datasets destinés aux usages IA / LLM. Optimiser les performances des traitements et les coûts d’infrastructure cloud. Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données. Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD. Collaborer avec les équipes techniques et métiers dans un environnement Agile. Profil recherché Bac+5 en informatique / data engineering ou équivalent. Minimum 5 ans d’expérience sur des environnements Data complexes. Très bonne maîtrise de Python (POO) et SQL. Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions. Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow. Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform. Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation. Intérêt pour les sujets IA générative et modern data stack. Anglais professionnel courant. Environnement technique GCP (BigQuery, GCS, Cloud Run, Vertex AI) dbt, Dagster GitLab CI/CD Docker, Terraform Data multi-sources : CRM, social data, advertising, analytics Conditions Mission longue durée Démarrage : juin 2026 Localisation : région parisienne Télétravail hybride (2 jours/semaine)
Freelance
CDI

Offre d'emploi
Data Engineer Expert SQL – Airflow / dbt / Cloud (H/F) – Paris

Craftman data
Publiée le
Apache Airflow
AWS Cloud
Azure

3 mois
40k-55k €
400-660 €
Paris, France
Dans le cadre du renforcement de son équipe Data, notre client grand compte recherche un Data Engineer confirmé / expert SQL capable d’intervenir sur des sujets à forte valeur ajoutée. Le consultant ne sera pas uniquement orienté technique : il devra également être capable de comprendre les enjeux métiers , challenger les besoins, et travailler en proximité avec le Product Owner afin de construire des pipelines fiables, industrialisés et alignés avec les objectifs business. Le consultant attendu devra être un acteur moteur , force de proposition et contributeur actif à l’amélioration continue des pratiques Data.
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance

Mission freelance
Senior Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-550 €
Paris, France
Concevoir et implémenter des pipelines de données robustes et évolutifs Optimiser les performances et la rentabilité (optimisation des requêtes, clustering, stratégies de stockage) Implémenter des pipelines CI/CD et des frameworks d'observabilité pour améliorer la fiabilité des données Collaborer étroitement avec les architectes et les parties prenantes métiers pour s'aligner sur les objectifs stratégiques Promouvoir les bonnes pratiques en matière de gouvernance, sécurité et conformité des données Encadrer les ingénieurs et contribuer aux bonnes pratiques et aux normes d'ingénierie Assurer le support des environnements de production, résoudre les problèmes et effectuer des analyses de causes profondes Contribuer à l'amélioration continue de la plateforme de données
Freelance

Mission freelance
Data Platform Engineer (H/F)

PREREQUIS
Publiée le
AWS Cloud
CI/CD
DBT

3 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un de nos clients un Data Platform Engineer sous la responsabilité d’un Teachlead, vous êtes responsable de la conception, de la mise à disposition et de l’évolution des services de plateforme Data & AI. Missions : AWS & Cloud Platform Engineering (enjeu clé) • Concevoir et opérer des architectures cloud-native et serverless sur AWS • Être garant des standards AWS : sécurité, réseau, identité, observabilité, résilience • Définir des patterns d’architecture réutilisables pour les usages data et ML • Automatiser la mise à disposition des ressources via Infrastructure as Code avec du Terraform Data Platform & Snowflake • Travailler au cœur d’une plateforme centrée sur Snowflake • Être capable de monter rapidement en expertise Snowflake (architecture, sécurité, performance, coûts) • Collaborer étroitement avec les équipes Data Engineering pour supporter les usages dbt / Airflow • Contribuer à l’industrialisation des workloads analytics, ML et GenAI Construction d’offres & services de plateforme • Concevoir et formaliser des offres de services Data Platform autour de l’ingestion de données et de déploiement de job de transformation, model ML, … • Définir le cadre d’usage : standards, responsabilités, SLA, bonnes pratiques • Structurer une approche “productisée” de la plateforme DevOps, CI/CD & Automatisation • Concevoir et maintenir des pipelines CI/CD GitLab • Automatiser les déploiements, configurations et contrôles • Promouvoir les pratiques DevOps / DataOps auprès des équipes consommatrices • Contribuer à la fiabilité opérationnelle (monitoring, alerting, runbooks) Enablement, pédagogie & évangélisation • Accompagner les Data Engineers, Data Scientists et ML Engineers dans l’adoption de la plateforme • Jouer un rôle de référent technique et pédagogue • Produire de la documentation claire et actionnable • Animer des sessions de partage, d’architecture et de bonnes pratiques • Évangéliser les standards cloud, data et sécurité FinOps & performance • Intégrer les enjeux FinOps dans la conception des services • Optimiser l’usage des ressources AWS et Snowflake • Aider les équipes à consommer la plateforme de manière responsable et efficace
Freelance

Mission freelance
Architecture Dataiku - Lamballe (22)

Signe +
Publiée le
Amazon S3
Data governance
Data Lake

150 jours
430-450 €
Lamballe-Armor, Bretagne
L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Freelance
CDI

Offre d'emploi
Analytics Engineer

ONSPARK
Publiée le
DBT
SQL

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Analytics Engineer pour accompagner nos clients grands comptes. Responsabilités Concevoir et maintenir des modèles de données analytiques Développer des pipelines de transformation de données (ELT/ETL) Garantir la qualité, la documentation et la cohérence des données Collaborer avec les Data Analysts pour répondre aux besoins métier Mettre en place des tests et des pratiques de data quality
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
CDI
Freelance

Offre d'emploi
Data Engineer

KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT

1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
Freelance

Mission freelance
Data Engineer

SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python

6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : •⁠ ⁠Effectuer des alimentations de données, •⁠ ⁠Travailler en binome avec un Data Analyst sur un sujet IA/Data. •⁠ ⁠Travailler autour d'agent IA pour du requetage SQL en langage naturelle •⁠ ⁠Mise à dispo d'outillage d'aide aux développement, monitoring… , •⁠ ⁠Faire une veille technologique autour des architectures data,
Freelance

Mission freelance
Consultant MSBI ( Snowflake, DBT, Terraform)

TAHYS RECRUITMENT SOLUTIONS
Publiée le
DBT
Microsoft Analysis Services (SSAS)
Microsoft SSIS

12 mois
Paris, France
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT ELT Senior

Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI

1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Freelance

Mission freelance
Proxy Product Owner – Data Platform Snowflake - Full remote

Net technologie
Publiée le
Agile Scrum
Data Product Management
Data quality

3 mois
450-500 €
France
Dans le cadre d’un programme data, nous recherchons un(e) Proxy Product Owner pour accompagner la livraison de produits data sur une plateforme Snowflake en contexte Agile. 🎯 Objectif : faire le lien entre les équipes métiers et techniques afin de garantir des solutions data fiables, alignées avec les besoins business. 🚀 Missions Support du Product Owner sur la gestion et priorisation du backlog Traduction des besoins métiers en user stories & critères d’acceptation Coordination avec les équipes Data Engineering & Analytics Suivi des exigences autour des modèles de données, transformations & reporting Participation aux rituels Agile et suivi des sprints Suivi des livraisons et gestion des blocages fonctionnels Point de contact entre les stakeholders et les équipes techniques
CDI
Freelance

Offre d'emploi
Data Engineer / BI Analyst

VISIAN
Publiée le
BigQuery
Composer
DBT

3 ans
40k-45k €
400-490 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe en charge de la transformation d’une infrastructure décisionnelle existante, nous recherchons un Data Analyst Senior spécialisé Power BI et Google Cloud Platform. La mission consiste à accompagner la migration des rapports BI (Power BI) ainsi que des flux de données SSIS vers un environnement cloud moderne basé sur Google Cloud Platform. Le consultant interviendra sur les sujets de modélisation, transformation, industrialisation et exploitation des données, avec une forte dimension analytique et BI. Le poste nécessite une bonne maîtrise des environnements GCP, des outils de traitement et d’orchestration de données, ainsi qu’une capacité à structurer, analyser et restituer efficacement les données pour répondre aux enjeux métiers et décisionnels. Compétences techniques attendues BI / Data Power BI SSIS SQL Analytics / BI Cloud & Data Engineering Google Cloud Platform (GCP) BigQuery Composer dbt Python Data Modélisation de données Industrialisation des traitements Analyse de données Exploration et restitution des données
Freelance

Mission freelance
Data Quality Analyst (H/F)

Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)

3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
CDI

Offre d'emploi
Data Analytics Engineer Senior F/H

ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
59 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous