Trouvez votre prochaine offre d’emploi ou de mission freelance DBT
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)
Mission freelance
Data Engineer DBT
Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.

Offre d'emploi
Développeur INFORMATICA & DBT
Bonjour à toutes et à tous 😊 Je recherche un développeur orienté Informatica & DBT pour l'un de nos clients dans le cadre d'un démarrage ASAP. 🎯 Contexte de la mission Dans le cadre d’un projet stratégique de transformation et de migration de données vers un environnement moderne, nous recherchons un Expert Data Migration / Développeur ETL Senior pour rejoindre notre équipe Data. Vous interviendrez sur des projets à forte valeur ajoutée, en collaboration avec des équipes métiers et techniques dans un contexte Agile (SAFe). 🧭 Missions principales Concevoir et développer des flux ETL complexes dans le cadre de projets de migration de données. Participer activement aux phases de cadrage, conception et modélisation des bases de données cibles. Réaliser les développements sous DBT et Informatica , en garantissant la qualité, la performance et la maintenabilité des livrables. Écrire et optimiser des requêtes en SQL et T-SQL pour l’intégration, la transformation et le contrôle des données. Collaborer étroitement avec les équipes Data Engineering, Architecture et Métier dans un environnement Azure (Data Factory, Blob Storage, etc.). Participer aux cérémonies Agiles (SAFe) et contribuer à la planification, aux revues et aux démonstrations. Documenter les développements et transférer la connaissance aux autres membres de l’équipe. Pré-requis : Plus de 10 ans d'expérience dont 5 ans dans le domaine requis Maîtrise des développements en DBT et Informatica dans un environnement de migration Maîtrise des développements en langage SQL et T-SQL Maîtrise des bases de données et de la modélisation Ayant déjà travaillé en méthodologie SAFE (Agile) et cycle en V Bonne connaisse de l’éco-système cloud Azure (Data factory, Blob) Bonne connaisse de Tableau (si possible)

Mission freelance
Développeur DBT python anglais H/F
Dans le cadre de la maintenance et des évolutions de notre produit BI, dans un contexte international, vous serez notamment amené à : Participer activement au développement et à la maintenance du produit : o Création de la structure des objets de base de données o Analyse/création/modification des scripts d’alimentation ou de restitution avec python/dbt Maintenir et faire évoluer l’environnement DBT Garantir la cohérence d’ensemble des développements ELT Mettre à jour la documentation techniques Veiller à minimiser la dette technique, à optimiser et fiabiliser l’architecture existante Mise en place de tests automatisés avec l’équipe de test en Pologne Analyser les besoins métiers des différents projets Livrables Mission en régie, livrables en fonction des user stories développées. Compétences Vous justifiez d’une expérience minimale de 3 ans sur des environnements data orientés BI et des connaissances sur la méthodologie Agile. Vous devez maitriser le langage SQL et la gestion des bases de données. Avoir des connaissances sur le métier de la logistique serait une plus-value. Afin d’atteindre les objectifs qui vous sont assignés dans le cadre de vos missions, vous devrez démontrer des compétences relationnelles et techniques et plus particulièrement : Savoirs-être : Bon relationnel Autonomie Capacité à travailler en équipe Capacités d’adaptation/d’écoute Rigoureux (se) Réactivité

Mission freelance
Data Engineer
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.

Offre d'emploi
DATA ENGINEER SNOWFLAKE / DBT / Service Now ITSM
Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,
Mission freelance
SENIOR DATA ENGINEER SNOWFLAKE - DBT (Azure)
Notre client renforce son équipe Data dans le cadre de l’évolution de sa Data Platform. Au sein d’un environnement moderne et exigeant, vous participerez à des projets stratégiques de modélisation, d’analyse et de valorisation des données. En tant que Senior Analytics Engineer , vous serez intégré à la Data Platform et interviendrez sur l’ensemble de la chaîne de traitement de la donnée. Vos responsabilités incluront : 📊 Modélisation & Transformation de la donnée : Conception des hubs, satellites et links selon l’approche Data Vault 2.0 Développement de modèles dans dbt Cloud (SQL, Python) Création de macros/tests pour la qualité des données Gestion des projets dbt : versioning, documentation, administration des accès 🧩 Architecture & Data Engineering : Étude des architectures existantes et proposition d’optimisations Création et gestion des objets Snowflake (tables, vues, rôles, sécurité) Optimisation des performances des bases de données 📈 Data Visualisation : Création, évolution et maintenance des modèles sémantiques dans Power BI Développement de rapports avancés et intégration des mesures DAX Mise en œuvre du Row-Level Security Adaptation des métadonnées pour les filiales internationales 🔄 CI/CD & Qualité : Participation aux processus CI/CD via Azure DevOps Suivi des performances, contrôle qualité et automatisation des pipelines

Mission freelance
POT8636-Un Data Engineer DBT sur Paris
Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris.

Mission freelance
225661/Concepteur Développeur Testeur DBT - Mons-en-Barœul
Concepteur Développeur Testeur DBT Mons-en-Barœul Objet Nous recherchons un profil confirmé (3 ans minimum d’expérience) de concepteur/développeur/testeur pour travailler sur le développement d’applications sous DBT, réaliser les tests et assurer le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe. Goals and deliverables Livrables attendus - Développements DBT - Spécifications Fonctionnelles et Techniques - Analyse et traitements des incidents de Production - Support sur les outils groupe - Plan de tests Localisation Mons en Baroeul Compétences recherchées : ▪ Analyse ▪ Maîtrise du développement DBT ▪ Autonome Domaines d’expertise Outils & Technologies: - DBT - GCP Expected skills Skills Skill level GCP Confirmed Data Build Tool Confirmed DBT Confirmed

Offre d'emploi
DATA MANAGER
Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Mission freelance
Concepteur Développeur Testeur DBT
CONTEXTE DATA Epargne Retraite Au Sein du service DATA Epargne Retraite, l’équipe DATA met en place différentes applications s’appuyant sur les données du domaine Epargne retraite pour le groupe afin de répondre à différents usages métiers. CONTEXTE : Nous recherchons un profil confirmé (3 ans minimum d’expérience) de concepteur/développeur/testeur pour travailler sur le développement d’applications sous DBT, réaliser les tests et assurer le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe. Livrables attendus - Développements DBT - Spécifications Fonctionnelles et Techniques - Analyse et traitements des incidents de Production - Support sur les outils groupe - Plan de tests
Mission freelance
[FBO] Concepteur Développeur Testeur DBT - 893
Contexte de la mission Objet Nous recherchons un profil confirmé (3 ans minimum d’expérience) de concepteur/développeur/testeur pour travailler sur le développement d’applications sous DBT, réaliser les tests et assurer le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe. Objectifs et livrables Livrables attendus - Développements DBT - Spécifications Fonctionnelles et Techniques - Analyse et traitements des incidents de Production - Support sur les outils groupe - Plan de tests Localisation Mons en Baroeul Compétences recherchées : ▪ Analyse ▪ Maîtrise du développement DBT ▪ Autonome Domaines d’expertise Outils & Technologies: - DBT - GCP

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

Mission freelance
Data Analyst DBT GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié
Mission freelance
Lead Data Snowflake/AWS
Hello, Est-ce que tu es en recherche d'une de lead data pour: Établir les standards de développement et de gouvernance : définir les bonnes pratiques, workflows et principes DataOps/CI-CD. Assurer la qualité et la conformité des environnements : veiller à la sécurité, la fiabilité et la maintenabilité des flux de données. Encadrer et accompagner les équipes : animer des sessions de code review, transmettre les bonnes pratiques et construire des référentiels d’usage partagés. Réaliser des audits techniques pour identifier les axes d’amélioration sur la performance, la stabilité et la maîtrise des coûts.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.