Trouvez votre prochaine offre d’emploi ou de mission freelance DBT
Votre recherche renvoie 60 résultats.
Mission freelance
Tech Lead Data & Viz
Management Square
Publiée le
Data modelling
Microsoft Power BI
Snowflake
1 an
530-570 €
Île-de-France, France
Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post‑mortems), tout en mentorant l’équipe. Tech Lead Data & Viz pour l'équipe DAAS Expertise Snowflake/Azure Data Factory Aide au cadrage technique sur les initiatives et projets du périmètres. Expertise Power BI sur le périmètre Regions : best practices à rédiger, template, etc
Mission freelance
Architecte Dataiku
CS Group Solutions
Publiée le
Dataiku
6 mois
Lamballe-Armor, Bretagne
Nous recherchons un architecte Dataiku Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Les livrables sont Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Mission freelance
Tech Lead Data & Viz — Snowflake H/F
Inventiv IT
Publiée le
Azure Data Factory
Data modelling
Microsoft Power BI
3 mois
640-700 €
Courbevoie, Île-de-France
Contexte de la mission Dans le cadre du renforcement d’une équipe Data Analytics, nous recherchons un Tech Lead Data / BI capable de piloter l’ensemble de la chaîne de valorisation de la donnée, de l’ingestion jusqu’à la restitution décisionnelle. Le consultant interviendra sur un environnement moderne orienté data industrialisée autour de Snowflake, dbt et Power BI, avec une forte dimension de leadership technique, d’industrialisation et d’accompagnement des équipes. Missions principales Piloter et superviser la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI Définir et faire appliquer les standards techniques : revue de code CI/CD qualité et performance gouvernance et sécurité des accès (RLS) Assurer le suivi du run et la gestion des incidents Animer les post-mortems et contribuer à l’amélioration continue Cadrer techniquement les nouvelles initiatives Data / BI Structurer et diffuser les bonnes pratiques Power BI Concevoir et maintenir des templates et standards de reporting Accompagner et faire monter en compétences les membres de l’équipe, y compris des profils offshore Compétences requisesExpertise incontournable Snowflake Data Modeling BI Modeling Compétences confirmées Power BI Leadership technique et communication Industrialisation des environnements data Compétences appréciées Azure Data Factory CI/CD Data Gouvernance Data & sécurité Expérience en environnement Data Mesh ou Data Platform
Mission freelance
POT9149 - Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc
Almatek
Publiée le
Dataiku
6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Data Engineering Java / Scala Expérimenté
Espritek
Publiée le
Scala
3 ans
10k-12k €
100-160 €
France
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Mais aussi contribuer à des projets Data en apportant son expertise sur les tâches suivantes : montée en compétence sur l'ETL BigL, participation à la réalisation de projets métier dans le cadre de la solution offline ELT in-House Big Loader et BDI/DBT, Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et de production afin de garantir la qualité et la performance des solutions mises en place. Livrables : ● Accompagner techniquement les autres membres de l'équipe (juniors) ● Active participation aux choix d'architecture technique Livrer les composants
Offre d'emploi
Data Analyst intermédiaire expert GCP BigQuery PowerBI SSIS
ARDEMIS PARTNERS
Publiée le
Google Cloud Platform (GCP)
JIRA
PowerBI
3 mois
34k-41k €
100-320 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Intégré au sein de l'équipe chargée de la transformation des applications existantes pour un groupe bancaire, vous collaborerez étroitement avec les différents métiers pour migrer les rapports BI (Power BI) et les flux de données (SSIS) vers Google Cloud Platform (GCP), en utilisant des outils tels que Composer et dbt. Votre mission principale sera de garantir une transition fluide et efficace, tout en assurant la stabilité et la performance des systèmes. Votre expertise en BI, modélisation, GCP, outils d'intégration et votre capacité à maitriser les concepts métier sont cruciaux pour mener à bien cette mission. Vous jouerez un rôle clé dans l'optimisation des capacités de livraison des solutions, augmentant ainsi leur impact et leur efficacité. Vous veillerez au respect des jalons avec une ambition forte à fin 2026. Sous la supervision d'un référent de la squad, vous assurerez une coordination optimale pour la réussite de vos missions.
Offre d'emploi
Data Engineer - Migration Data Lake
VISIAN
Publiée le
Data Engineering
Migration
1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Mission freelance
Architect Data/ IA
Groupe Aptenia
Publiée le
Agent IA
Large Language Model (LLM)
2 ans
500-750 €
Paris, France
Venez structurer des architectures scalables, migrer vers Data Bricks et développer des agents IA from scratch dans un contexte international Maîtriser IA agentique : LLM, Transformers Google, protocoles MCP & Agent Protocols. Communiquer avec les métiers, expliquer IA/Data, animer des présentations. Collaborer en équipe agile (16+ pers.), reporting CTO/DG Expert migrations Data Bricks/DBT/GCP et un spécialiste IA agentique/LLM 3ans d'expériences minimum en architecture Anglais courant requis Bon Esprit d'équipe
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Python
SQL
Terraform
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Senior Analytics Engineer
AVA2I
Publiée le
CI/CD
MySQL
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation Data au sein d’un environnement Banque de Financement et d’Investissement, nous recherchons un Senior Analytics Engineer afin de rejoindre une équipe en charge du développement de plateformes analytiques et de data products à forte valeur métier. Le programme vise à moderniser les usages Data & Analytics autour des activités de financement et de distribution, avec des enjeux forts autour : de la qualité et de la traçabilité des données, des contraintes réglementaires, du pilotage des portefeuilles, de l’industrialisation des usages analytiques, et de l’amélioration de la performance opérationnelle. Le consultant interviendra dans un environnement transverse en collaboration avec les équipes métier, risques, finance, architecture data et IT. MissionsConception & Modélisation Analytics Concevoir et maintenir des data products analytiques sur Google Cloud Platform Construire des modèles analytiques dénormalisés (star schema, data marts, data products) Traduire les besoins métiers complexes en datasets exploitables et industrialisés Définir les modèles physiques analytiques à partir des modèles conceptuels fournis Optimiser les structures analytiques selon les usages métiers et les contraintes de performance Data Engineering & ELT Développer et maintenir les pipelines ELT avec dbt, BigQuery et Airflow Industrialiser les traitements de transformation et d’exposition de données Optimiser les performances BigQuery : partitionnement clusterisation optimisation des coûts optimisation des temps de traitement Garantir la robustesse et la maintenabilité des traitements Analytics Métier Risk & Finance Concevoir des datasets permettant : le pilotage de la performance des portefeuilles de financement, le suivi des expositions et de la consommation des ressources rares, l’analyse des indicateurs de liquidité, capital et RWA, l’analyse de l’activité commerciale et des pipelines métier. Le consultant sera garant : de la cohérence fonctionnelle des indicateurs, des règles d’agrégation et de calcul, de la traçabilité des transformations, de la qualité des données exposées. Qualité & Gouvernance Data Mettre en œuvre les contrôles de qualité de données : dbt tests, contrôles de cohérence, complétude, fraîcheur des données Contribuer à la documentation fonctionnelle et technique Participer à la définition des standards de modélisation et de développement Assurer la traçabilité des sources et des transformations Collaboration & Delivery Travailler en étroite collaboration avec : les équipes métier, la MOA, les équipes risques et finance, l’architecture data, les équipes IT & plateformes Participer aux phases de : tests techniques, tests fonctionnels, intégration, performance, UAT Être référent analytics sur son périmètre Être force de proposition sur les usages data et analytics
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
- Exercice décalé et avantage en nature
- Plateforme d'appel d'offres public scam ou non ?
- Facturation auto-entrepreneur
- Passage au réel après dépassement micro : notification URSSAF ?
60 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois