Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Votre recherche renvoie 62 résultats.
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Offre d'emploi
Expert Snowflake — Migration SAS & Python (H/F)
Publiée le
Migration
Python
SAS
6 mois
50k-65k €
500-600 €
Paris, France
CONTEXTE Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Contexte de la mission La mission s’inscrit dans un environnement métier exigeant, au cœur du secteur Assurance & Services Financiers, où la fiabilité et la performance des traitements data sont essentielles. Dans le cadre d’un projet de modernisation de son environnement Data, notre client souhaite migrer un ensemble de traitements SAS vers Snowflake. Le périmètre couvre des volumes de données particulièrement importants (plusieurs millions à milliards de lignes). L’équipe interne, de taille restreinte, recherche un consultant expérimenté capable de : • Analyser les traitements existants sous SAS, • Les réécrire en Snowflake et Python, • Optimiser les performances dans un environnement fortement volumétrique. Missions principales • Analyse des scripts, macros et traitements SAS existants • Réécriture et conversion des traitements en Snowflake SQL et Python • Optimisation des performances Snowflake • Reproduction fidèle de la logique métier SAS • Réalisation de tests comparatifs SAS vs Snowflake • Vérification de la qualité, cohérence et complétude des données migrées • Rédaction de la documentation technique • Accompagnement de l’équipe interne dans la prise en main des nouveaux développements
Offre d'emploi
Tech Lead Snowflake (Pré-embauche)
Publiée le
Snowflake
6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche en pré-embauche, d'un Tech Lead Snowflake Dans le cadre de la mise en place de leur Data Platform, le client recherche un Tech Lead Snowflake, pour les accompagner à poser la Factory Data, orienté "Produit". Je recherche donc un profil sénior, orienté conseil, pour construire la factory, et accompagner à développer une équipe Data. Experience similaire attendue, construction d'une DataPlatform sous Snowflake (via Azure). Idéalement une experience sous projet Agile
Mission freelance
Data Engineer Azure / Snowflake
Publiée le
Azure
Databricks
Snowflake
12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
Run Manager
Publiée le
Confluence
JIRA
Oracle Database
1 an
300-350 €
Cestas, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Run Manager afin d'assurer le pilotage du Run. A ce titre, vos principales missions seront les suivantes : Support Utilisateur N1 et pilotage du Run de notre Client Être le point d’entrée transverse pour les demandes issues : - Du client (support aux opérations & backoffice technique), -Des utilisateurs entrepôt (blocages, anomalies opérationnelles), du backoffice IT (flux d’échanges, erreurs techniques), -Des interlocuteurs projet (configurations, évolutions). -Qualifier, analyser, traiter selon procédure ou escalader les incidents et demandes. Suivre les anomalies récurrentes et proposer des plans correctifs. Amélioration continue et fiabilisation des flux -Mettre en place une méthodologie de suivi et de priorisation (backlog Run, quick wins, reporting). -Identifier les causes racines des incidents pour réduire durablement la charge Run -Fiabiliser les flux critiques (commandes, préparations, transports, intégrations IT) et participer au développement d'une observabilité proactive. Coordination transverse et relation client -Assurer la communication régulière avec le client, en garantissant visibilité et proactivité sur les incidents. -Coordonner les équipes internes (entrepôts, IT, projets) et externes pour fluidifier la résolution des problèmes. -Participer aux rituels de suivi (daily/hebdo avec équipes CNOVA et du client, comités de pilotage réguliers). Documentation et reporting -Documenter les procédures et alimenter la base de connaissances (Confluence, guides de résolution). -Accompagner la montée en autonomie des équipes sur le suivi des flux de notre client. -Contribuer à l’amélioration de la relation client via des pratiques structurées de support et de reporting.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Analyste IT Risque de Marché
Publiée le
AWS Cloud
Gitlab
Jupyter Notebook
6 mois
500-550 €
Paris, France
Télétravail partiel
Poste : Analyste IT Risque de Marché 📍 Paris, France 🎯 Contexte Vous rejoindrez une équipe Risque de Marché en charge de la conception du cadre de risque, du suivi opérationnel, de la modélisation et de l’évolution des outils de risk management. Le poste s’inscrit dans un environnement innovant lié aux produits dérivés et aux actifs digitaux. 🚀 Vos missions 🧪 Développement & Data Risk Développer des scripts, outils, rapports et dashboards en Python : analyse de marge, backtesting, contrôles qualité, analyse de portefeuille, outils de gestion du défaut… Contribuer à la construction d’une librairie Python robuste et documentée. Garantir la fiabilité et l’automatisation des scripts dans un environnement local et cloud. 📊 Business Analyse Recueillir et analyser les besoins fonctionnels liés aux risques de marché & opérationnels. Rédiger les spécifications fonctionnelles / user stories. Participer activement aux ateliers et réunions projets, identifier les impacts et proposer des solutions. Préparer et exécuter les tests, documenter les résultats et participer à la mise en production. Contribuer à la stratégie de déploiement et former les autres membres de l’équipe. 🎓 Compétences clés Très bonne maîtrise de Python et des outils de versioning (GitLab). Connaissance de Jupyter, AWS ou Snowflake appréciée. Excellente communication en français et anglais. Expérience projet dans la finance de marché (BA ou testing). Compréhension des notions de risque de marché et des produits dérivés (Delta, Gamma, Vega…). Rigueur, autonomie, esprit analytique, capacité à anticiper.
Mission freelance
Run Manager (Bordeaux)
Publiée le
Confluence
JIRA
PostgreSQL
3 mois
320-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Run Manager, vos missions seront : Être le point d’entrée transverse pour les demandes issues du client (support aux opérations & backoffice technique), des utilisateurs entrepôt (blocages, anomalies opérationnelles), du backoffice IT (flux d’échanges, erreurs techniques), des interlocuteurs projet (configurations, évolutions). Qualifier, analyser, traiter selon procédure ou escalader les incidents et demandes. Suivre les anomalies récurrentes et proposer des plans correctifs. Mettre en place une méthodologie de suivi et de priorisation (backlog Run, quick wins, reporting). Identifier les causes racines des incidents pour réduire durablement la charge Run. Fiabiliser les flux critiques (commandes, préparations, transports, intégrations IT) et participer au développement d'une observabilité proactive. Assurer la communication régulière avec Le client, en garantissant visibilité et proactivité sur les incidents. Coordonner les équipes internes (entrepôts, IT, projets) et externes pour fluidifier la résolution des problèmes. Participer aux rituels de suivi. Documenter les procédures et alimenter la base de connaissances (Confluence, guides de résolution). Accompagner la montée en autonomie des équipes sur le suivi des flux de notre client. Contribuer à l’amélioration de la relation client via des pratiques structurées de support et de reporting.
Offre d'emploi
Chef de projet technique gestion d'actif
Publiée le
Azure DevOps
Microsoft Fabric
Microsoft SQL Server
1 an
68k-74k €
650-700 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Chef de projet technico-fonctionnel confirmé pour intervenir sur des projets d’évolution et de maintenance d’applications dans le domaine Asset Management . La mission inclut la coordination des intégrations applicatives, la rédaction de spécifications technico-fonctionnelles et le suivi des déploiements. Missions principales : Définir les choix d’architecture technique en respectant les standards. Concevoir les traitements d’enrichissement et de manipulation de données. Rédiger les spécifications technico-fonctionnelles. Coordonner les travaux des équipes support (DevOps, flux, réseau). Suivre l’avancement des travaux des éditeurs ou tiers (TMA). Assister la MOA et accompagner les phases de recette. Organiser les déploiements en production et assurer le transfert de compétences.
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
62 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois