Trouvez votre prochaine offre d’emploi ou de mission freelance DBT
Votre recherche renvoie 59 résultats.
Mission freelance
DATA ENGINEER GCP
PARTECK INGENIERIE
Publiée le
BigQuery
DBT
Docker
6 mois
400-540 €
Hauts-de-Seine, France
Data Engineer Senior – Plateforme Data & IA Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative. Missions principales Concevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources. Participer à la mise en place de l’architecture Data sur environnement cloud GCP. Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation. Préparer et structurer les datasets destinés aux usages IA / LLM. Optimiser les performances des traitements et les coûts d’infrastructure cloud. Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données. Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD. Collaborer avec les équipes techniques et métiers dans un environnement Agile. Profil recherché Bac+5 en informatique / data engineering ou équivalent. Minimum 5 ans d’expérience sur des environnements Data complexes. Très bonne maîtrise de Python (POO) et SQL. Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions. Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow. Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform. Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation. Intérêt pour les sujets IA générative et modern data stack. Anglais professionnel courant. Environnement technique GCP (BigQuery, GCS, Cloud Run, Vertex AI) dbt, Dagster GitLab CI/CD Docker, Terraform Data multi-sources : CRM, social data, advertising, analytics Conditions Mission longue durée Démarrage : juin 2026 Localisation : région parisienne Télétravail hybride (2 jours/semaine)
Offre d'emploi
Data Engineer Expert SQL – Airflow / dbt / Cloud (H/F) – Paris
Craftman data
Publiée le
Apache Airflow
AWS Cloud
Azure
3 mois
40k-55k €
400-660 €
Paris, France
Dans le cadre du renforcement de son équipe Data, notre client grand compte recherche un Data Engineer confirmé / expert SQL capable d’intervenir sur des sujets à forte valeur ajoutée. Le consultant ne sera pas uniquement orienté technique : il devra également être capable de comprendre les enjeux métiers , challenger les besoins, et travailler en proximité avec le Product Owner afin de construire des pipelines fiables, industrialisés et alignés avec les objectifs business. Le consultant attendu devra être un acteur moteur , force de proposition et contributeur actif à l’amélioration continue des pratiques Data.
Mission freelance
Expert SQL Sénior / Data Engineer DBT
Signe +
Publiée le
Google Cloud Platform (GCP)
5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Mission freelance
Senior Data Engineer - Financial
Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD
6 mois
400-550 €
Paris, France
Concevoir et implémenter des pipelines de données robustes et évolutifs Optimiser les performances et la rentabilité (optimisation des requêtes, clustering, stratégies de stockage) Implémenter des pipelines CI/CD et des frameworks d'observabilité pour améliorer la fiabilité des données Collaborer étroitement avec les architectes et les parties prenantes métiers pour s'aligner sur les objectifs stratégiques Promouvoir les bonnes pratiques en matière de gouvernance, sécurité et conformité des données Encadrer les ingénieurs et contribuer aux bonnes pratiques et aux normes d'ingénierie Assurer le support des environnements de production, résoudre les problèmes et effectuer des analyses de causes profondes Contribuer à l'amélioration continue de la plateforme de données
Mission freelance
Data Platform Engineer (H/F)
PREREQUIS
Publiée le
AWS Cloud
CI/CD
DBT
3 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un de nos clients un Data Platform Engineer sous la responsabilité d’un Teachlead, vous êtes responsable de la conception, de la mise à disposition et de l’évolution des services de plateforme Data & AI. Missions : AWS & Cloud Platform Engineering (enjeu clé) • Concevoir et opérer des architectures cloud-native et serverless sur AWS • Être garant des standards AWS : sécurité, réseau, identité, observabilité, résilience • Définir des patterns d’architecture réutilisables pour les usages data et ML • Automatiser la mise à disposition des ressources via Infrastructure as Code avec du Terraform Data Platform & Snowflake • Travailler au cœur d’une plateforme centrée sur Snowflake • Être capable de monter rapidement en expertise Snowflake (architecture, sécurité, performance, coûts) • Collaborer étroitement avec les équipes Data Engineering pour supporter les usages dbt / Airflow • Contribuer à l’industrialisation des workloads analytics, ML et GenAI Construction d’offres & services de plateforme • Concevoir et formaliser des offres de services Data Platform autour de l’ingestion de données et de déploiement de job de transformation, model ML, … • Définir le cadre d’usage : standards, responsabilités, SLA, bonnes pratiques • Structurer une approche “productisée” de la plateforme DevOps, CI/CD & Automatisation • Concevoir et maintenir des pipelines CI/CD GitLab • Automatiser les déploiements, configurations et contrôles • Promouvoir les pratiques DevOps / DataOps auprès des équipes consommatrices • Contribuer à la fiabilité opérationnelle (monitoring, alerting, runbooks) Enablement, pédagogie & évangélisation • Accompagner les Data Engineers, Data Scientists et ML Engineers dans l’adoption de la plateforme • Jouer un rôle de référent technique et pédagogue • Produire de la documentation claire et actionnable • Animer des sessions de partage, d’architecture et de bonnes pratiques • Évangéliser les standards cloud, data et sécurité FinOps & performance • Intégrer les enjeux FinOps dans la conception des services • Optimiser l’usage des ressources AWS et Snowflake • Aider les équipes à consommer la plateforme de manière responsable et efficace
Mission freelance
Architecture Dataiku - Lamballe (22)
Signe +
Publiée le
Amazon S3
Data governance
Data Lake
150 jours
430-450 €
Lamballe-Armor, Bretagne
L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Offre d'emploi
Analytics Engineer
ONSPARK
Publiée le
DBT
SQL
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Analytics Engineer pour accompagner nos clients grands comptes. Responsabilités Concevoir et maintenir des modèles de données analytiques Développer des pipelines de transformation de données (ELT/ETL) Garantir la qualité, la documentation et la cohérence des données Collaborer avec les Data Analysts pour répondre aux besoins métier Mettre en place des tests et des pratiques de data quality
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Offre d'emploi
Data Engineer
KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT
1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Mission freelance
Consultant MSBI ( Snowflake, DBT, Terraform)
TAHYS RECRUITMENT SOLUTIONS
Publiée le
DBT
Microsoft Analysis Services (SSAS)
Microsoft SSIS
12 mois
Paris, France
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Mission freelance
Proxy Product Owner – Data Platform Snowflake - Full remote
Net technologie
Publiée le
Agile Scrum
Data Product Management
Data quality
3 mois
450-500 €
France
Dans le cadre d’un programme data, nous recherchons un(e) Proxy Product Owner pour accompagner la livraison de produits data sur une plateforme Snowflake en contexte Agile. 🎯 Objectif : faire le lien entre les équipes métiers et techniques afin de garantir des solutions data fiables, alignées avec les besoins business. 🚀 Missions Support du Product Owner sur la gestion et priorisation du backlog Traduction des besoins métiers en user stories & critères d’acceptation Coordination avec les équipes Data Engineering & Analytics Suivi des exigences autour des modèles de données, transformations & reporting Participation aux rituels Agile et suivi des sprints Suivi des livraisons et gestion des blocages fonctionnels Point de contact entre les stakeholders et les équipes techniques
Offre d'emploi
Data Engineer / BI Analyst
VISIAN
Publiée le
BigQuery
Composer
DBT
3 ans
40k-45k €
400-490 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe en charge de la transformation d’une infrastructure décisionnelle existante, nous recherchons un Data Analyst Senior spécialisé Power BI et Google Cloud Platform. La mission consiste à accompagner la migration des rapports BI (Power BI) ainsi que des flux de données SSIS vers un environnement cloud moderne basé sur Google Cloud Platform. Le consultant interviendra sur les sujets de modélisation, transformation, industrialisation et exploitation des données, avec une forte dimension analytique et BI. Le poste nécessite une bonne maîtrise des environnements GCP, des outils de traitement et d’orchestration de données, ainsi qu’une capacité à structurer, analyser et restituer efficacement les données pour répondre aux enjeux métiers et décisionnels. Compétences techniques attendues BI / Data Power BI SSIS SQL Analytics / BI Cloud & Data Engineering Google Cloud Platform (GCP) BigQuery Composer dbt Python Data Modélisation de données Industrialisation des traitements Analyse de données Exploration et restitution des données
Mission freelance
Data Quality Analyst (H/F)
Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)
3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
Offre d'emploi
Data Analytics Engineer Senior F/H
ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
- Exercice décalé et avantage en nature
- Plateforme d'appel d'offres public scam ou non ?
- Facturation auto-entrepreneur
- Passage au réel après dépassement micro : notification URSSAF ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
59 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois