Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris

Votre recherche renvoie 11 résultats.
CDI
Freelance

Offre d'emploi
Senior Data Analyst

DEKIMO EXPERTS
Publiée le
Snowflake

6 mois
Paris, France
🚀 Senior Data Analyst – Fintech (Paris / Hybrid) Contexte Fintech européenne en forte croissance, recherche un Senior Data Analyst freelance pour renforcer la séniorité de son équipe Data et piloter des projets à fort impact business. La mission En tant que business partner data , vous intervenez au cœur des décisions stratégiques : Piloter des projets data transverses (Finance, Sales, Product, Marketing, Ops…) Traduire des problématiques métier en analyses actionnables Construire dashboards & reportings stratégiques Réaliser des analyses avancées (cohortes, attribution, forecasting) Contribuer à la structuration de la data (modélisation, qualité, self-service) Stack & environnement Snowflake · dbt · SQL · Tableau Profil recherché 5+ ans en data analytics (startup / scale-up idéalement) Excellente communication & posture de partenaire métier Forte autonomie et capacité à driver des projets complexes Expertise SQL + outils de data viz FR / EN courant
Freelance

Mission freelance
Consultant MSBI ( Snowflake, DBT, Terraform)

TAHYS RECRUITMENT SOLUTIONS
Publiée le
DBT
Microsoft Analysis Services (SSAS)
Microsoft SSIS

12 mois
Paris, France
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Freelance

Mission freelance
Lead Data Architecte (Convergence & MDM)

Pickmeup
Publiée le
.NET
Master Data Management (MDM)
PostgreSQL

3 mois
800-950 €
Paris, France
Le groupe est un acteur majeur de l'AdTech qui a récemment finalisé l'acquisition de deux entités stratégiques en 2025. L'enjeu actuel est de piloter la convergence technique et fonctionnelle de trois écosystèmes distincts vers une plateforme unique et cohérente. Le défi ne réside pas seulement dans la migration technique, mais dans l'unification de périmètres fonctionnels fragmentés pour couvrir l'intégralité du cycle de vie de l'investissement média Missions principales Sous la responsabilité du CTO, vous serez l'architecte et le garant de la nouvelle structure de données unifiée du groupe. Vos missions se décomposent en deux phases : 1. Conception de l'Architecture Cible (Vision Globale) Modélisation Unifiée : Concevoir un modèle de données cible couvrant l'ensemble du cycle média : budget, planning, achat, activation, facturation et audit. Stratégie d'Identité & Taxonomie : Définir une stratégie d'ID partagée et des taxonomies standardisées pour réconcilier trois systèmes aux structures et granularités hétérogènes. Modèle de Configurabilité : Concevoir un système permettant une haute personnalisation par client (hiérarchies spécifiques, règles métiers, champs optionnels) tout en préservant un cœur de données stable et robuste. Multi-tenant & Connectivité : Évaluer et choisir les meilleurs patterns d'isolation des données (tenancy) et définir les modèles d'échange avec les écosystèmes externes (DSPs, ERP, plateformes d'activation). 2. Mise en œuvre Opérationnelle (Focus Phase 1) Implémentation Hands-on : Contrairement à un rôle de pur conseil, vous participerez activement au développement de la première brique logicielle. Focus Media Planning : Piloter l'implémentation prioritaire du module "Planning" et des entités MDM associées dans un délai de 2 mois. Convergence MDM : Orchestrer la transition entre le Master Data Management (MDM) actuel de la maison mère (Snowflake/Python) et les systèmes acquis (SQL Server / .NET).
Freelance

Mission freelance
Data Analyst (Snowflake - Power BI - SQL)

Cherry Pick
Publiée le
Microsoft Power BI
Snowflake
SQL

12 mois
500-580 €
Paris, France
Contexte de la Mission Dans le cadre de sa transition BI et de l’harmonisation de ses outils de pilotage, l’entreprise recherche un Data Analyst Confirmé pour renforcer ses équipes. La mission s'inscrit dans une volonté d'industrialiser, d'uniformiser et d'automatiser les données ainsi que les rapports de suivi, notamment pour le pilotage de la DNV. Durée : 8 mois (de mai à décembre 2026). Équipe : Intégration d'une squad au sein de l'équipe Data Analyst, aux côtés de deux Data Analysts déjà en poste sur ce domaine. Localisation : Poste basé à Antony Télétravail : 1 jour fixe par semaine Missions Principales Le consultant sera chargé de transformer la donnée brute en produits data exploitables pour les directions métiers (Sales/Business) : Architecture de données : Conception de datamarts sur des vues complexes et migration de l’ensemble des datasets/dataflows existants vers ces nouveaux datamarts. Normalisation : Nettoyage et normalisation des données sources, principalement issues de Salesforce, pour garantir la cohérence du catalogue de données. Dataviz & Pilotage : Conception, mise à jour et diffusion de tableaux de bord sous Power BI pour le pilotage de l'activité business. Optimisation : Industrialisation et automatisation de rapports manuels ou existants.
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance
CDI

Offre d'emploi
Analytics Engineer

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Freelance

Mission freelance
Lead Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git

6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Freelance

Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)

ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT

1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Freelance

Mission freelance
Un  IT Quants / DevOps Engineer,

Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab

6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
11 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous