Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Votre recherche renvoie 35 résultats.
Mission freelance
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon/sa
WorldWide People
Publiée le
DBT
Snowflake
3 mois
400-480 £GB
Paris, France
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Offre d'emploi
DATA ANALYST SENIOR
UCASE CONSULTING
Publiée le
Dataiku
Snowflake
Tableau software
3 ans
40k-60k €
400-530 €
Paris, France
Bonjour, Pour le compte de notre client nous recherchons un data analyst snowflake / dataiku / tableau. Contexte du projet Dans le cadre d’un projet de transformation digitale , notre client souhaite optimiser son reporting et sa prise de décision via un environnement décisionnel performant . L’objectif est de fiabiliser et automatiser l’analyse des données à travers Tableau, améliorer le pilotage stratégique, et intégrer des données provenant de sources variées. Missions principales Recueillir et analyser les besoins métiers en reporting et visualisation. Concevoir et développer des tableaux de bord avancés sous Tableau (Server / Cloud). Optimiser les performances SQL et l’affichage des visualisations. Intégrer des données provenant de Snowflake, Big Data, Dataiku / Alteryx et autres sources hétérogènes. Accompagner les équipes métiers dans l’appropriation des outils . Assurer maintenance, évolution et documentation des tableaux de bord. Jouer un rôle d’ ambassadeur produit , avec une communication efficace auprès des équipes métiers.
Mission freelance
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon
WorldWide People
Publiée le
DBT
Snowflake
3 mois
400-480 £GB
Paris, France
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Proxy Product Owner Data – BUILD Focus
EMGS GROUP
Publiée le
Microsoft Power BI
Méthode Agile
Snowflake
6 mois
500-550 €
Paris, France
Dans le cadre d’un programme Security Analytics, nous recherchons un Proxy Product Owner Data expérimenté pour accélérer la phase BUILD . Objectifs de la mission Garantir une approche user-centric dans les décisions produit Construire et maintenir la roadmap produit Définir des spécifications fonctionnelles claires et exploitables Planifier, piloter et prioriser les développements en méthodologie Agile Tester et valider les fonctionnalités livrées Assurer la communication et l’accompagnement des utilisateurs Missions Participer aux cérémonies Agile et assister le PO dans la gestion de l’équipe Enrichir le backlog JIRA (spécifications d’intégration, règles de transformation, critères d’acceptation, KPI) Analyser les sources de données nécessaires à la construction des KPI Réaliser l’analyse technique et optimiser les logiques de calcul Concevoir les modèles de données dans Snowflake et Power BI Réaliser les UAT avec les parties prenantes Suivre l’orchestration et la planification des flux Contribuer à la documentation fonctionnelle Gérer et opérer le backlog BUILD
Mission freelance
Proxy Product Owner (P.PO) Data
Celexio
Publiée le
Database
Product management
Snowflake
1 an
500-600 €
Paris, France
Proxy PO (P.PO) Data / Snowflake Contexte Projet Au sein d'un grand groupe international, nous recherchons un Proxy Product Owner pour intégrer l'équipe de notre client et travailler avec le PO en place. Projet Datalake, qui gère le pilotage des risques au sein du groupe. Renfort sur la partie "RUN" et monitoring Missions Principales Gestion du RUN : Suivi, rédaction et analyse des incidents. Structuration de la partie support/maintenance. Data & Monitoring : Suivi de la data sur le changement des services. Documentation : Travail de rétro-ingénierie pour documenter l'existant. Change Management : Accompagnement via des vidéos et des ateliers/workshops. Coordination : Collaboration avec le PO déjà en place et lien avec les équipes en Inde (Offshore).
Mission freelance
Data Engineer AWS / Snowflake
Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake
12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Offre d'emploi
Senior DATA Project Manager - Anglais courant
KEONI CONSULTING
Publiée le
RACI
Snowflake
User acceptance testing (UAT)
18 mois
20k-40k €
Paris, France
CONTEXTE Expérience : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Senior Project Manager Spécialités technologiques : Intelligence artificielle, Gestion de projet,Gouvernance des données Le consultant interviendra en tant que Senior Project Manager sur des projets Data, Analytics et Intelligence Artificielle à dimension internationale. Il aura pour mission de piloter des initiatives complexes et transverses, en coordination avec des équipes globales et locales, afin de garantir la livraison de solutions analytiques à forte valeur métier. MISSIONS Les principales responsabilités et livrables attendus sont : 1. Pilotage de programme & support à la gouvernance • Accompagner la livraison du programme via une gestion structurée du backlog et des priorités • Organiser et animer les instances récurrentes du programme en garantissant efficacité, pertinence et limitation du temps de réunion • Préparer les ordres du jour, supports et tableaux visuels ; formaliser les décisions, risques, points bloquants et assurer le suivi des actions • Produire des reportings clairs et synthétiques, maintenir une documentation projet détaillée et des outils de pilotage à jour • Représenter les intérêts auprès des prestataires et fournisseurs 2. Exécution du management de projet • Piloter de bout en bout des projets pays et transverses (ex. : Data Privacy, Data Catalog, définition de processus) • Construire et suivre des plans d’actions alignés sur les délais et le budget, en coordination avec les parties prenantes globales et locales • Assurer une gestion proactive des risques et définir les canaux d’escalade appropriés • Accompagner les équipes locales dans la définition des besoins métiers, la préparation et l’exécution des recettes (UAT), selon leur niveau d’autonomie • Garantir les prérequis avant le lancement des projets : o RACI o Planification des ressources o Définition de la valeur métier o Revue du Statement of Work (SOW) • Piloter les initiatives d’amélioration continue, incluant l’optimisation des processus et la conduite du changement 3. Standards, documentation & amélioration continue • Contribuer à la définition des standards analytiques et opérationnels du programme • Développer et maintenir la documentation du programme (playbooks, descriptions de processus, guides) • Appliquer une démarche d’amélioration continue aux nouveaux processus et pratiques • Définir et valider les phases de tests des processus analytiques • Capitaliser sur les retours d’expérience, les intégrer dans la documentation standard et assurer leur diffusion auprès de toutes les équipes Expertise souhaitée Expertise souhaitée • Plus de 10 ans d’expérience en IT, dont au moins 5 ans sur des projets Data & Analytics • Expérience confirmée dans le pilotage de programmes globaux ou multi-pays • Maîtrise des méthodologies de gestion de projet (Scrum, Lean, Kanban) • Solides compétences en leadership, communication et gestion des parties prenantes, dans des environnements complexes et internationaux • Capacité à entrer dans le détail tout en conservant une vision globale, afin d’assurer une coordination efficace entre les équipes métiers, IT et data • Excellentes capacités d’organisation, de gestion du temps, de priorisation et de résolution de problèmes • Bonne compréhension des concepts d’analytique et d’intelligence artificielle, permettant d’interagir efficacement avec les équipes techniques et métiers • Forte autonomie, rigueur, orientation résultats et aptitude à proposer des solutions pragmatiques • Anglais courant
Offre d'emploi
Data Engineer (H/F)(spécialisation et certification Snowflake exigées)
SERYCE
Publiée le
Agile Scrum
Azure
Data analysis
12 mois
Paris, France
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Mission freelance
Consultant PowerBI & Snowflake
Net technologie
Publiée le
Microsoft Power BI
Snowflake
3 mois
Paris, France
Contexte Au sein de l’équipe Data, le Développeur Power BI Confirmé conçoit et maintient des solutions décisionnelles performantes basées sur Power BI et Snowflake , au service des équipes métiers. Missions Développer des rapports et tableaux de bord sous Power BI Concevoir des modèles de données optimisés Exploiter et optimiser les données issues de Snowflake (SQL) Garantir la performance, la qualité et la sécurité des rapports Collaborer avec les équipes métiers et data Être force de proposition sur les choix techniques et les axes d’amélioration
Mission freelance
Mission Freelance – DBA SQL Server / PostgreSQL (H/F)
SKILLWISE
Publiée le
Databricks
Datadog
Microsoft SQL Server
6 mois
100-550 €
Paris, France
Nous recherchons un DBA freelance confirmé pour accompagner un grand groupe français du secteur médias & digital dans l’administration, l’optimisation et l’industrialisation de ses bases de données, dans des environnements On-Premise, Azure et AWS . La mission s’inscrit au sein d’une équipe d’experts bases de données , intervenant à la fois sur le support de niveau 3 et sur l’ accompagnement de projets applicatifs . Vous interviendrez sur deux grands volets : 🔧 Support & Expertise DBA (environ 30 %) Assurer le support N3 sur les bases de données Analyser les incidents (connexion, sauvegardes, performances, etc.) Proposer et mettre en œuvre des solutions de contournement ou de correction Rédiger les procédures de résolution d’incidents Analyser et résoudre les problématiques de performance Mettre en place et améliorer la supervision des bases de données Une connaissance de Datadog est un plus 🏗️ Accompagnement projets (environ 70 %) Définir les architectures bases de données et les normes de mise en œuvre Conseiller sur la sécurité des accès et les bonnes pratiques Accompagner les équipes applicatives sur les flux de données Participer à la mise en place de solutions d’automatisation : Pipelines Infrastructure as Code (Terraform) Scripts (PowerShell, etc.)
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Tenth Revolution Group
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Mission freelance
Senior Data Analyst
Phaidon London- Glocomms
Publiée le
Azure Data Factory
Business Analyst
Dataiku
6 mois
400-550 €
Paris, France
1. Outils de suivi des risques Développer des visualisations pour le suivi des risques. Créer et maintenir des bases de données fiables. Créer des tableaux de bord dans *Power BI**. Documenter les outils et les transmettre à l’équipe. 2. Analyse métier Quantifier les risques et identifier les leviers d’action. Présenter et défendre les analyses lors des discussions métiers. Traiter les demandes ponctuelles des unités opérationnelles. 3. Gestion de projet et collaboration Gérer les projets avec les clients internes (analyse des besoins, intégration, livraison). Collaborer avec les autres profils de données et la communauté Data Citizens de CAL&F.
Mission freelance
Analyste IT Risque de Marché
Keypeople Consulting
Publiée le
AWS Cloud
Gitlab
Jupyter Notebook
6 mois
500-550 €
Paris, France
Poste : Analyste IT Risque de Marché 📍 Paris, France 🎯 Contexte Vous rejoindrez une équipe Risque de Marché en charge de la conception du cadre de risque, du suivi opérationnel, de la modélisation et de l’évolution des outils de risk management. Le poste s’inscrit dans un environnement innovant lié aux produits dérivés et aux actifs digitaux. 🚀 Vos missions 🧪 Développement & Data Risk Développer des scripts, outils, rapports et dashboards en Python : analyse de marge, backtesting, contrôles qualité, analyse de portefeuille, outils de gestion du défaut… Contribuer à la construction d’une librairie Python robuste et documentée. Garantir la fiabilité et l’automatisation des scripts dans un environnement local et cloud. 📊 Business Analyse Recueillir et analyser les besoins fonctionnels liés aux risques de marché & opérationnels. Rédiger les spécifications fonctionnelles / user stories. Participer activement aux ateliers et réunions projets, identifier les impacts et proposer des solutions. Préparer et exécuter les tests, documenter les résultats et participer à la mise en production. Contribuer à la stratégie de déploiement et former les autres membres de l’équipe. 🎓 Compétences clés Très bonne maîtrise de Python et des outils de versioning (GitLab). Connaissance de Jupyter, AWS ou Snowflake appréciée. Excellente communication en français et anglais. Expérience projet dans la finance de marché (BA ou testing). Compréhension des notions de risque de marché et des produits dérivés (Delta, Gamma, Vega…). Rigueur, autonomie, esprit analytique, capacité à anticiper.
Offre d'emploi
Data & IA Engineer (H-F)
Big Apps
Publiée le
AI
Apache Airflow
Apache Kafka
Paris, France
Big APPS recrute un(e) Data & IA Engineer en CDI pour intervenir sur des projets Data & IA à forte valeur ajoutée. En tant que Data Engineer, vous aurez pour responsabilités de : Concevoir, développer et maintenir les plateformes de données de nos clients, en garantissant l’intégrité, la disponibilité et la sécurité des données Mettre en œuvre des pipelines de traitement de données : ingestion, stockage, transformation et analyse en temps réel Participer à la création et au déploiement de solutions d’intelligence artificielle (machine learning, systèmes de recommandation) Collaborer avec les équipes Data Science pour l’industrialisation des modèles prédictifs Exploiter les environnements Cloud (Azure, AWS, GCP) pour concevoir des solutions performantes et scalables Contribuer à la culture DevOps en automatisant les déploiements et en intégrant des pratiques CI/CD Profil recherché Pour réussir sur ce poste, vous disposez de : Une expérience ou de solides connaissances en Python, Spark, Scala, Kafka, Java Une forte appétence pour l’IA et la Data Science Une expérience avec au moins un Cloud Provider (Azure, AWS ou GCP) Des connaissances en orchestration de données (Airflow, Prefect) et en bases de données SQL / NoSQL Une sensibilité aux bonnes pratiques DevOps Des certifications Data & Cloud appréciées : Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer, DBT, Snowflake, Databricks Environnement de travail - Une équipe soudée, motivée par le partage de connaissances et le développement des compétences. - Des projets variés touchant à des domaines tels que l'IA, la Big Data, le DevOps et le Cloud. - Un environnement stimulant, favorisant l’innovation et l’utilisation des dernières technologies. - La possibilité de travailler avec des experts et de se former en continu sur les technologies émergentes, notamment dans le domaine de l’intelligence artificielle. Si vous souhaitez rejoindre une entreprise où l'innovation et le développement sont au cœur des projets, envoyez-nous votre candidature dès aujourd’hui !
Offre d'emploi
Chef de projet intégration SI Asset Management
ABSIS CONSEIL
Publiée le
Azure DevOps
Microsoft Fabric
Microsoft SQL Server
1 an
68k-74k €
650-700 €
Paris, France
Contexte : Nous recherchons un Chef de projet technico-fonctionnel confirmé pour intervenir sur des projets d’évolution et de maintenance d’applications dans le domaine Asset Management . La mission inclut la coordination des intégrations applicatives, la rédaction de spécifications technico-fonctionnelles et le suivi des déploiements. Missions principales : Définir les choix d’architecture technique en respectant les standards. Concevoir les traitements d’enrichissement et de manipulation de données. Rédiger les spécifications technico-fonctionnelles. Coordonner les travaux des équipes support (DevOps, flux, réseau). Suivre l’avancement des travaux des éditeurs ou tiers (TMA). Assister la MOA et accompagner les phases de recette. Organiser les déploiements en production et assurer le transfert de compétences.
Mission freelance
Data Engineer AWS / GenAI
Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage au réel après dépassement micro : notification URSSAF ?
- Barème kilométrique interdit pour les TNS, vrai ou faux ?
- Société étrangère dgfip s en mele
- Rester en EURL IS ou basculer à l'IR
- clause de NC : 2 intermédiaires et client qui cesse sa collaboration avec eux
- Nouveaux codes APE - obligatoires au 01/01/2027
35 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois