Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Votre recherche renvoie 35 résultats.
Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote
Signe +
Publiée le
Snowflake
12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Offre d'emploi
Data Engineer Snowflake
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Analytics Engineer
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Offre d'emploi
DATA ENGINEER SNOWFLAKE / DATABRICKS
UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake
6 mois
40k-45k €
400-550 €
Paris, France
Contexte Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Snowflake et/ou Databricks Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data Profil recherché Nous recherchons avant tout un passionné de data et de technologie , avec une forte appétence pour les environnements techniques exigeants. Compétences techniques indispensables : Très bon niveau en Python (clean code, performance, bonnes pratiques) Excellent niveau en SQL Expérience significative sur Snowflake et/ou Databricks Solide culture Data Engineering À l’aise avec les environnements cloud et les architectures data modernes Bon niveau d'anglais Soft skills : Profil geek , curieux et passionné par la data Forte autonomie technique Goût pour le code bien fait et les défis techniques Capacité à échanger avec des équipes techniques exigeantes
Offre d'emploi
Product analyst
UCASE CONSULTING
Publiée le
BigQuery
Snowflake
SQL
1 an
40k-65k €
410-810 €
Paris, France
Bonjour 😀 Pour l'un de nos clients, nous recherchons un Product Data Analyst pour accompagner son équipe Produit App Mobile , afin de piloter la prise de décision basée sur la donnée et d’améliorer l’expérience de l’application mobile. Au sein de l’équipe Digital Analytics, vous jouerez un rôle clé dans l’analyse de la performance produit, l’expérimentation et l’optimisation continue, en fournissant des insights actionnables qui orientent la stratégie produit et génèrent un impact business mesurable. Responsabilités principales : Analyse Produit & Performance : Analyser les évolutions produit, les expérimentations (A/B tests) et les optimisations afin de mesurer leur impact sur les principaux KPI de l’application mobile et du business. Insights Stratégiques : Transformer les données en recommandations claires et actionnables afin d’influencer la roadmap produit et les priorités business. Collaboration avec les parties prenantes : Travailler en partenariat avec des équipes transverses pour définir les indicateurs de succès et soutenir les décisions produit basées sur la donnée. Stratégie Analytics & Tracking : Définir et valider les besoins de tracking afin de garantir une collecte de données fiable, une bonne qualité des données et l’intégrité de la mesure. Expérimentation & Optimisation : Identifier des opportunités d’optimisation pour améliorer la conversion et l’expérience utilisateur.
Mission freelance
PRODUCT OWNER (DATA SUPPLY)
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Offre d'emploi
DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE
UCASE CONSULTING
Publiée le
DBT
Snowflake
Tableau software
3 ans
40k-55k €
450-580 €
Paris, France
🔹 DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE🎯 Missions principales Recueil et compréhension des besoins métiers dans un environnement data complexe Conception et développement de pipelines de données robustes et scalables Modélisation des données et transformation via dbt Optimisation des performances liées à de fortes volumétries Mise en qualité, fiabilité et traçabilité des données Contribution aux bonnes pratiques data (tests, documentation, industrialisation) Collaboration étroite avec les équipes BI, métiers et IT 🧠 Prérequis techniques Snowflake : excellente maîtrise (modélisation, performance, volumétrie) dbt : maîtrise confirmée (models, tests, documentation) Tableau : forte expérience (dataviz, performance, bonnes pratiques BI) SQL avancé indispensable Expérience sur des environnements data complexes et fortement industrialisés Notions de gouvernance, qualité et sécurité des données appréciées 🧑💼 Seniorité attendue Profil senior 5 à 8 ans d’expérience minimum en data engineering Capacité à être autonome et force de proposition 🤝 Soft skills clés Forte capacité d’analyse et de compréhension du besoin métier Autonomie et sens des responsabilités Rigueur, structuration et exigence technique Aisance dans les échanges avec des interlocuteurs variés Capacité à évoluer dans un contexte exigeant et mouvant
Mission freelance
CHEF DE PROJET MOE BI/DATA
YGL consulting
Publiée le
Snowflake
6 mois
Paris, France
YGL recherche un Chef de Projet BI confirmé à senior pour intervenir sur des projets décisionnels stratégiques . La mission s’inscrit dans un contexte de forts enjeux de pilotage métier , avec des attentes élevées sur la mise en place et le suivi d’indicateurs de performance pour les équipes opérationnelles. MISSIONS: Recueil et analyse des besoins métiers en Business Intelligence Pilotage global des projets BI, de la phase de cadrage jusqu’à la mise en production Gestion du planning, du plan de charge et du suivi des activités Animation des comités projets (Coproj, Copil) et rédaction des comptes rendus Coordination des parties prenantes (métiers, équipes techniques, data) Rédaction, lecture et validation des spécifications fonctionnelles et techniques Suivi de la qualité, des délais et des livrables
Mission freelance
PRODUCT OWNER DATA SUPPLY
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)
Linkup Partner
Publiée le
DBT
1 an
45k-55k €
470-560 €
Paris, France
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Mission freelance
Data Engineer Snowflake (H/F)
Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Mission freelance
Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Paris ou Lyon/sa
WorldWide People
Publiée le
DBT
Snowflake
3 mois
400-480 £GB
Paris, France
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Proxy PO RUN - Snowflake + Power BI
FF
Publiée le
Microsoft Power BI
Snowflake
1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Proxy Product Owner Data – RUN Focus
EMGS GROUP
Publiée le
Microsoft Power BI
Snowflake
SQL
6 mois
500-550 €
Paris, France
Dans le cadre d’un programme Security Analytics, nous recherchons un Proxy Product Owner Data expérimenté pour sécuriser et stabiliser la phase RUN. Objectifs de la mission Structurer la transition BUILD → RUN Garantir la performance, la fiabilité et la disponibilité des solutions data Piloter le backlog RUN et les incidents Mettre en place des processus opérationnels pérennes Missions Organiser et accompagner la transition des activités BUILD vers RUN Gérer et arbitrer le backlog incidents ServiceNow selon les risques et impacts business Analyser et coordonner les tickets incidents avec les équipes de développement Communiquer de manière proactive avec les utilisateurs Rédiger des SOP (Standard Operating Procedures) pour incidents récurrents Mettre en place le monitoring et l’alerting (qualité, fraîcheur, disponibilité des données) Garantir la performance opérationnelle des solutions Contribuer à la formation et au support utilisateurs (Power BI / self-BI)
Mission freelance
Data Engineer / Expert DBT Snowflake
CS Group Solutions
Publiée le
DBT
Snowflake
3 mois
Paris, France
Nous recherchons un Data Engineer / Expert DBT Snowflake Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Catégorisation assistance informatique à domicile
- Passage au réel après dépassement micro : notification URSSAF ?
- Barème kilométrique interdit pour les TNS, vrai ou faux ?
- Société étrangère dgfip s en mele
- Rester en EURL IS ou basculer à l'IR
- clause de NC : 2 intermédiaires et client qui cesse sa collaboration avec eux
35 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois