Find your next tech and IT Job or contract Snowflake

Your search returns 66 results.
Contractor

Contractor job
PRODUCT OWNER DATA PRODUIT

Published on
Snowflake

12 months
560-570 €
Paris, France
Hybrid
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Contractor

Contractor job
PRODUCT OWNER DATA SUPPLY

Published on
Snowflake

12 months
560 €
Paris, France
Hybrid
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Permanent

Job Vacancy
Data Engineer Snowflake - Lyon

Published on
Snowflake

40k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Contractor

Contractor job
PRODUCT OWNER DATA CRM / DIGITAL

Published on
Snowflake

12 months
560 €
Paris, France
Hybrid
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
Permanent
Contractor

Job Vacancy
Data Engineer (spécialisation Snowflake)

Published on
Agile Scrum
Azure
Data analysis

12 months
Paris, France
Hybrid
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Contractor
Permanent

Job Vacancy
Tech Lead Snowflake

Published on
Apache Airflow
AWS Cloud
Snowflake

2 years
40k-81k €
400-640 €
Issy-les-Moulineaux, Ile-de-France
Hybrid
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Contractor

Contractor job
Data Engineer Azure / Snowflake

Published on
Azure
Databricks
Snowflake

12 months
Paris, France
Hybrid
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Contractor

Contractor job
Data Engineer AWS / Snowflake (Urgent)

Published on
Amazon S3
AWS Cloud
Gitlab

6 months
400-550 €
Paris, France
Hybrid
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Contractor

Contractor job
Data Engineer DBT / Snowflake

Published on
DBT

3 months
400-500 €
Paris, France
Hybrid
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Contractor
Permanent

Job Vacancy
Tech Lead Snowflake (Pré-embauche)

Published on
Snowflake

6 months
40k-45k €
400-550 €
Paris, France
Hybrid
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche en pré-embauche, d'un Tech Lead Snowflake Dans le cadre de la mise en place de leur Data Platform, le client recherche un Tech Lead Snowflake, pour les accompagner à poser la Factory Data, orienté "Produit". Je recherche donc un profil sénior, orienté conseil, pour construire la factory, et accompagner à développer une équipe Data. Experience similaire attendue, construction d'une DataPlatform sous Snowflake (via Azure). Idéalement une experience sous projet Agile
Contractor

Contractor job
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Published on
Snowflake

6 months
580 €
Paris, France
Hybrid
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Contractor

Contractor job
DATA ENGINEER - SNOWFLAKE

Published on
Snowflake

6 months
100-400 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Permanent
Fixed term
Contractor

Job Vacancy
Expert Snowflake — Migration SAS & Python (H/F)

Published on
Migration
Python
SAS

6 months
50k-65k €
500-600 €
Paris, France
CONTEXTE Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Contexte de la mission La mission s’inscrit dans un environnement métier exigeant, au cœur du secteur Assurance & Services Financiers, où la fiabilité et la performance des traitements data sont essentielles. Dans le cadre d’un projet de modernisation de son environnement Data, notre client souhaite migrer un ensemble de traitements SAS vers Snowflake. Le périmètre couvre des volumes de données particulièrement importants (plusieurs millions à milliards de lignes). L’équipe interne, de taille restreinte, recherche un consultant expérimenté capable de : • Analyser les traitements existants sous SAS, • Les réécrire en Snowflake et Python, • Optimiser les performances dans un environnement fortement volumétrique. Missions principales • Analyse des scripts, macros et traitements SAS existants • Réécriture et conversion des traitements en Snowflake SQL et Python • Optimisation des performances Snowflake • Reproduction fidèle de la logique métier SAS • Réalisation de tests comparatifs SAS vs Snowflake • Vérification de la qualité, cohérence et complétude des données migrées • Rédaction de la documentation technique • Accompagnement de l’équipe interne dans la prise en main des nouveaux développements
Contractor

Contractor job
Profil expérimenté DBT/Snowflake

Published on
AWS Cloud
DBT
Pandas

6 months
370-400 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Contractor

Contractor job
Lead Data Quality Analyst

Published on
Dataiku
Qlik
ServiceNow

12 months
600-700 €
Paris, France
Hybrid
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
66 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us