L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 11 résultats.
Mission freelance
Data Engineer Snowflake (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
Offre d'emploi
Data Engineer Snowflake Sénior (H/F)
Panda Services
Publiée le
Apache Airflow
Azure
CI/CD
6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake
6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
WorldWide People
Publiée le
Snowflake
3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-50k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : bh4lb59dqp
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Offre d'emploi
Data Engineer Snowflake
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Engineer dbt / Snowflake Senior (H/F)
Link Consulting
Publiée le
DBT
Snowflake
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur international du secteur pharmaceutique, recherche un Data Engineer Senior dbt / Snowflake (H/F) afin de renforcer sa plateforme data analytique. Vos missions : Au sein d’une équipe data internationale, vous interviendrez sur : La conception et le développement de pipelines ELT performants La modélisation des données analytiques (faits, dimensions) L’optimisation des performances Snowflake et requêtes SQL La mise en œuvre des bonnes pratiques DataOps et CI/CD La gestion de la sécurité des données (RBAC, RLS, masquage dynamique) L’ingestion de données depuis des environnements cloud AWS La mise en place de tests de qualité et de monitoring data Les compétences techniques Snowflake (Time Travel, Zero Copy Cloning, Snowpipe) dbt (models, macros, tests, snapshots, DAGs) SQL avancé AWS S3 Git, CI/CD, automatisation DataOps
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F
Comet
Publiée le
Agent IA
Python
RAG
12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
11 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois