Trouvez votre prochaine offre d’emploi ou de mission freelance DBT à Paris
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Mission freelance
Data Engineer DBT
Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.

Mission freelance
Data Engineer
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.

Offre d'emploi
DATA ENGINEER SNOWFLAKE / DBT / Service Now ITSM
Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,

Mission freelance
POT8636-Un Data Engineer DBT sur Paris
Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris.

Offre d'emploi
DATA MANAGER
Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Mission freelance
Data Analyst DBT GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié
Mission freelance
Lead Data Snowflake/AWS
Hello, Est-ce que tu es en recherche d'une de lead data pour: Établir les standards de développement et de gouvernance : définir les bonnes pratiques, workflows et principes DataOps/CI-CD. Assurer la qualité et la conformité des environnements : veiller à la sécurité, la fiabilité et la maintenabilité des flux de données. Encadrer et accompagner les équipes : animer des sessions de code review, transmettre les bonnes pratiques et construire des référentiels d’usage partagés. Réaliser des audits techniques pour identifier les axes d’amélioration sur la performance, la stabilité et la maîtrise des coûts.

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
Ingénieur de données GCP (H/F)
o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Offre d'emploi
Data Architect
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble

Offre d'emploi
Consultant MLOps GenAI
Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.