Find your next tech and IT Job or contract Snowflake

Your search returns 66 results.
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Contractor

Contractor job
Run Manager (Bordeaux)

Published on
Confluence
JIRA
PostgreSQL

3 months
320-450 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
En tant que Run Manager, vos missions seront : Être le point d’entrée transverse pour les demandes issues du client (support aux opérations & backoffice technique), des utilisateurs entrepôt (blocages, anomalies opérationnelles), du backoffice IT (flux d’échanges, erreurs techniques), des interlocuteurs projet (configurations, évolutions). Qualifier, analyser, traiter selon procédure ou escalader les incidents et demandes. Suivre les anomalies récurrentes et proposer des plans correctifs. Mettre en place une méthodologie de suivi et de priorisation (backlog Run, quick wins, reporting). Identifier les causes racines des incidents pour réduire durablement la charge Run. Fiabiliser les flux critiques (commandes, préparations, transports, intégrations IT) et participer au développement d'une observabilité proactive. Assurer la communication régulière avec Le client, en garantissant visibilité et proactivité sur les incidents. Coordonner les équipes internes (entrepôts, IT, projets) et externes pour fluidifier la résolution des problèmes. Participer aux rituels de suivi. Documenter les procédures et alimenter la base de connaissances (Confluence, guides de résolution). Accompagner la montée en autonomie des équipes sur le suivi des flux de notre client. Contribuer à l’amélioration de la relation client via des pratiques structurées de support et de reporting.
Permanent

Job Vacancy
Data Engineer - Lyon

Published on
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor

Contractor job
Data Engineer Python / AWS / Airflow / Snowflake

Published on
Apache Airflow
AWS Cloud
Python

12 months
100-550 €
Ile-de-France, France
Hybrid
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Contractor
Permanent
Fixed term

Job Vacancy
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)

Published on
BI
Cognos
Microsoft Power BI

12 months
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Contractor

Contractor job
Data engineer senior H/F

Published on
Google Cloud Platform (GCP)
HFSQL
Python

2 years
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Contractor

Contractor job
Data Engineer - access management on Snowflake

Published on
Snowflake

3 years
400-550 €
Ile-de-France, France
Hybrid
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Permanent

Job Vacancy
Data Engineer Talend - DAX

Published on
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Contractor

Contractor job
DBA Snowflake

Published on
Python

6 months
500-600 €
Paris, France
Hybrid
Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
Contractor

Contractor job
Data Analyst Power BI

Published on
Data analysis
Marketing
Microsoft Power BI

2 years
400-450 €
Lille, Hauts-de-France
Hybrid
La mission consiste à : - Analyser les données clients - Réaliser des analyses ad hoc pour répondre aux besoins des équipes - Mettre en place des tableaux de bord Power BI pour suivre les KPIs - Identifier des opportunités business via des analyses prédictives ou des insights data-driven Compétences demandées : - Expériences significatives en tant que data analyst, avec une spécialisation en marketing (loyalty, CRM, leads, media, generosity, pricing...) - Maitrise de Power BI - Bonne compréhension des enjeux marketing client - Anglais professionnel
Permanent
Contractor

Job Vacancy
Data Product Manager Snowflake / Power BI

Published on
Microsoft Power BI
Snowflake

1 year
Courbevoie, Ile-de-France
Hybrid
Missions principales Concevoir et modéliser les architectures de données sur Snowflake. Créer et maintenir la couche sémantique (modèles métier, mesures, relations) from scratch. Piloter les développements et garantir la cohérence fonctionnelle des dashboards Power BI. Comprendre et documenter les processus fonctionnels métiers pour assurer la pertinence des modèles de données. Identifier, collecter et consolider les sources d’information pertinentes auprès des différentes équipes. Traiter les problématiques complexes liées à la performance, la qualité et la cohérence des données. Participer activement à la définition des bonnes pratiques de modélisation et de gouvernance data.
Contractor
Permanent

Job Vacancy
Tech Lead Databricks

Published on
Databricks
Snowflake

2 years
La Défense, Ile-de-France
Hybrid
Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable
Permanent

Job Vacancy
Consultant Snowflake - Secteur Maritime H/F

Published on

40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte de la mission : Viveris accompagne ses clients dans la sécurisation de leurs infrastructures, tant pour l'informatique de gestion que pour l'informatique industrielle. Dans ce cadre, nous recherchons un Consultant Snowflake. Dans ce rôle, vous serez responsable de la conception, du développement et de la gestion de l'entrepôt de données Snowflake, ainsi que de la création et de la maintenance des pipelines de données pour répondre aux besoins métier complexes de nos clients dans le domaine maritime. Intégré au sein de l'équipe Data, vous collaborerez avec l'architecte data et le responsable de la plateforme vous contribuerez à la mise en place ou l'amélioration de la partie Snowflake ainsi qu'à l'accompagnement des équipes off-shore. Responsabilités : - Concevoir et mettre en oeuvre des solutions de data warehousing basées sur Snowflake pour répondre aux besoins métier spécifiques du secteur maritime ; - Contribuer à l'amélioration à la gestion et aux résultats FinOps ; - Développer et maintenir les pipelines de données pour l'extraction, la transformation et le chargement (ETL) des données dans Snowflake.
Contractor

Contractor job
FREELANCE – Data Engineer Airflow (H/F)

Published on
Apache Airflow
AWS Cloud
DBT

6 months
480-520 €
Marseille, Provence-Alpes-Côte d'Azur
Remote
Notre client basé à Marseille (13) est à la recherche d’un Data Engineer Airflow (H/F) freelance dans le cadre du renforcement de leur expertise sur les data pipelines de leur plateforme. MISSIONS · Développement de data pipelines Airflow extract-loead · Développemlent de dag Airflow d’administration · Maintien et évolution du framework on-top d’Airflow · On boarding et support aux équipes projets utilisatrices de la plateforme · Industrialisation d’une offre Airflow/BDT-Core ENVIRONNEMENT TECHNIQUE · Airflow · Python · DBT · Snowflake · Git · AWS · Kubernetes
Contractor

Contractor job
[MDO] ingénieur de plateforme de données - (min 7 ans XP)

Published on
CI/CD
Cloud
JIRA

5 months
400-560 €
Belgium
Remote
En tant qu’ingénieur de plateforme de données, le rôle consiste à concevoir, développer et maintenir l’infrastructure supportant les pipelines de données et les applications pilotées par les données. La mission implique de créer un écosystème de données robuste, évolutif et fiable, en utilisant principalement Snowflake et des modules Terraform pour le cloud, tout en appliquant les bonnes pratiques DevOps, y compris CI/CD et tests d’infrastructure automatisés. La gestion sécurisée des secrets via des solutions comme HashiCorp Vault ou les gestionnaires de secrets cloud est également un aspect clé.
66 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us