Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Votre recherche renvoie 29 résultats.
Offre d'emploi
Tech Lead Snowflake (Pré-embauche)
Publiée le
Snowflake
6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche en pré-embauche, d'un Tech Lead Snowflake Dans le cadre de la mise en place de leur Data Platform, le client recherche un Tech Lead Snowflake, pour les accompagner à poser la Factory Data, orienté "Produit". Je recherche donc un profil sénior, orienté conseil, pour construire la factory, et accompagner à développer une équipe Data. Experience similaire attendue, construction d'une DataPlatform sous Snowflake (via Azure). Idéalement une experience sous projet Agile
Mission freelance
Senior Data engineer
Publiée le
Snowflake
1 mois
450-580 €
Paris, France
Télétravail partiel
Métier : Data Management Fonction : Software engineer Type de facturation : Assistance Technique (facturation avec un taux journalier) Technologies et outils : AWSSparkSnowflakeAirflow Secteurs d'activités : Services Informatiques, Conseil en organisation et stratégie Description et livrables de la prestation : Rattaché au Responsable Data Platform, missions principales : Développer des pipelines ETL sur AWS vers Snowflake Mettre en place du stockage optimisé avec des technologies lakehouse, notamment DeltaLake Créer des jobs manipulant la donnée avec SQL et Python (pandas, Polars) Traiter de gros volumes de données avec PySpark Développer et maintenir des infrastructures avec de l’IaC, principalement avec Terraform Orchestrer les traitements via Airflow Déployer et maintenir des applications en CI/CD Participer à la conception d’architecture et aux réflexions techniques Avoir une bonne capacité de vulgarisation et de communication Participer aux rituels agiles et contribuer à la documentation technique et fonctionnelle Expérience requise : 5 à 10 ans en tant que Data Engineer, avec expérience significative sur AWS. Plus : Un positionnement en tant que techlead, expérience dans un contexte BI, ou en DevOps serait un avantage.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre premium
Offre d'emploi
Data Engineer Snowflake DBT
Publiée le
BigQuery
CI/CD
Databricks
1 jour
40k-45k €
100-480 €
Paris, France
Télétravail partiel
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Mission freelance
DBA Snowflake
Publiée le
Python
6 mois
500-600 €
Paris, France
Télétravail partiel
Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
Mission freelance
Lead Data Management & Gouvernance – Snowflake / Data Galaxy
Publiée le
Agile Scrum
Confluence
DataGalaxy
3 mois
400-650 €
Paris, France
Télétravail partiel
Nous recherchons un Lead Data Management & Gouvernance pour accompagner un acteur international majeur dans la transformation de sa plateforme data globale , en lien direct avec les ambitions IA et LLM du groupe. 🎯 Contexte de la mission : Au sein de la Direction Data, vous jouerez un rôle central dans la structuration et la gouvernance des données à l’échelle du groupe. Votre mission : concevoir, piloter et déployer la stratégie Data Management & Gouvernance , tout en accompagnant la montée en maturité des pratiques data au sein des équipes métiers et techniques. ⚙️ Vos missions principales : Définir et piloter la fonction Data Management , de la stratégie à l’exécution opérationnelle. Agir en tant qu’ architecte fonctionnel du modèle de données global (plus de 600 tables). Mettre en œuvre les pratiques clés de gouvernance : gestion des accès, conformité, observabilité, data literacy. Sélectionner, déployer et administrer le catalogue de données (Data Galaxy) . Encadrer et animer une équipe dédiée (Data Steward, Data Owners…). Co-construire et faire évoluer le cadre de Data Quality de la plateforme Snowflake. Élaborer et diffuser un Data Maturity Scorecard pour mesurer et améliorer la maturité data à l’échelle du groupe. Lancer et encadrer des initiatives innovantes IA / RAG (ex : chatbot de requêtes naturelles sur Snowflake Cortex). Piloter la création et la maintenance du glossaire métier en lien avec l’architecture d’entreprise. Fédérer et animer la communauté Data Owners pour renforcer l’accountability et l’engagement autour de la donnée.
Offre d'emploi
Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
Mission freelance
Mission Longue de Consultant Snowflake
Publiée le
Architecture
AWS Cloud
Azure
3 mois
180-680 €
Paris, France
Télétravail partiel
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Mission freelance
Data Engineer
Publiée le
DBT
Snowflake
12 mois
500-600 €
Paris, France
Télétravail partiel
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.
Mission freelance
Data Manager - H/F - 75 + remote
Publiée le
AWS Cloud
Snowflake
SQL
3 mois
400-550 €
Paris, France
Télétravail partiel
Dans un contexte de forte croissance, notre client souhaite consolider ses modèles de données analytiques et améliorer la maturité agile de son équipe Data Platform. Mission Concevoir, documenter et maintenir les modèles de données analytiques (Silver & Gold layers dans Snowflake) Collaborer avec les Data Engineers, Analysts et Data Scientists pour garantir la cohérence et la performance des modèles Contribuer à la structuration des rituels d’équipe : sprint planning, stand-ups, revues, rétrospectives Accompagner la montée en maturité sur les bonnes pratiques de delivery et de gouvernance technique Participer à la mise en place de standards de modélisation et de tests de qualité dans dbt Documenter les modèles dans DataGalaxy (data catalog, lineage, ownership)
Mission freelance
Développeur Snowflake
Publiée le
Snowflake
6 mois
400-450 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients dans le secteur pharmaceutique, je suis à la recherche d'un développeur Snowflake confirmé. La prestation consistera à : Importer dans une base Snowflake des logs (O365…) . Délivrer des évolutions fonctionnelles de services Cyber supportés par différents portails web internes. Ces évolutions nécessitent des développements sur la partie frontend et backend des portails dans un environnement Power Platform et PowerShell principalement. La prestation de service se décompose comme ci-dessous : 1. Intégration de logs en base de données Snowflake - A partir des logs (O365 …), identifier les données à intégrer dans la base Snowflake en fonction des besoins du projet client. - Créer la structure de données et les traitements adaptés (procédures stockées en Python avec appel APIs) permettant de peupler les tables avec des données provenant de différentes sources (logs O365 …) en respectant les conventions et les processus de déploiements définis chez le client. Evolution des applications internes & de gestion des dispenses : - Production des développements frontend et backend concernant les fonctionnalités apportées par les applications internes et de dispensations, développées sur la Power Platform. - Montée de version de PowerShell à réaliser sur la plateforme hébergeant les scripts internes et de gestion des dispensations. Profiter de cette montée de version, pour factoriser certains modules afin de faciliter la maintenabilité des solutions.
Mission freelance
Data Platform Engineer - Terraform
Publiée le
CI/CD
DevOps
JIRA
6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Offre d'emploi
Data Engineer (H/F)
Publiée le
ServiceNow
Snowflake
6 mois
54k-64k €
400-470 €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise
Mission freelance
Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F)
Publiée le
API
Snowflake
Talend
6 mois
400-600 €
Paris, France
🧩 Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F) 📍 Paris – Hybride ( 3 jours sur site) | 📅 Démarrage souhaité : mi-novembre 2025 🎯 Contexte Vous rejoignez une équipe IT en charge de la refonte de l’architecture digitale et des flux d’intégration pour des projets marketplace, e-concession et B2B à l’international. Vous travaillerez en binôme avec un chef de projet senior et serez le point de contact technique et fonctionnel pour les partenaires digitaux et les équipes internes. ⚙️ Vos missions Piloter l’ intégration technique de nouveaux partenaires digitaux (marketplaces, grands magasins, plateformes B2B). Cadrer, suivre et coordonner les projets d’ échanges de données entre systèmes internes (ERP, OMS, PIM, WMS…) et partenaires. Participer à la migration d’une plateforme d’intégration API/ETL (MuleSoft → Talend). Rédiger les spécifications fonctionnelles et techniques liées aux flux API et EDI. Assurer la maintenabilité et la supervision des flux existants (ordonnancement, monitoring, gestion des incidents). Collaborer avec les équipes IT, métiers (digital, logistique, data) et partenaires externes. Contribuer à la standardisation et la documentation des bonnes pratiques d’intégration. 🧠 Votre profil Bac +5 ou équivalent en informatique, systèmes d’information ou génie logiciel. 5 à 10 ans d’expérience en gestion de projets IT technico-fonctionnels. Expérience confirmée dans les flux d’intégration (API / EDI) , idéalement dans un environnement retail / e-commerce / marketplace . Bonne compréhension des systèmes ERP, OMS, PIM, WMS et des échanges inter-applicatifs. Connaissance de Talend (ou autre ETL / ESB), MuleSoft appréciée. Notions d’ordonnancement ( vTOM ) et de data ( Snowflake, SQL ) sont un plus. Excellent relationnel, rigueur, sens du service et goût pour la technique. Anglais professionnel (partenaires internationaux).
Mission freelance
ALSL - Tech Manager Data
Publiée le
Apache Airflow
AWS Cloud
Big Data
6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
29 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois