Find your next tech and IT Job or contract Snowflake
Your search returns 66 results.
Contractor job
SENIOR DATA ENGINEER SNOWFLAKE - DBT (Azure)
Published on
Azure
Azure DevOps
DBT
3 months
400-650 €
Ile-de-France, France
Hybrid
Notre client renforce son équipe Data dans le cadre de l’évolution de sa Data Platform. Au sein d’un environnement moderne et exigeant, vous participerez à des projets stratégiques de modélisation, d’analyse et de valorisation des données. En tant que Senior Analytics Engineer , vous serez intégré à la Data Platform et interviendrez sur l’ensemble de la chaîne de traitement de la donnée. Vos responsabilités incluront : 📊 Modélisation & Transformation de la donnée : Conception des hubs, satellites et links selon l’approche Data Vault 2.0 Développement de modèles dans dbt Cloud (SQL, Python) Création de macros/tests pour la qualité des données Gestion des projets dbt : versioning, documentation, administration des accès 🧩 Architecture & Data Engineering : Étude des architectures existantes et proposition d’optimisations Création et gestion des objets Snowflake (tables, vues, rôles, sécurité) Optimisation des performances des bases de données 📈 Data Visualisation : Création, évolution et maintenance des modèles sémantiques dans Power BI Développement de rapports avancés et intégration des mesures DAX Mise en œuvre du Row-Level Security Adaptation des métadonnées pour les filiales internationales 🔄 CI/CD & Qualité : Participation aux processus CI/CD via Azure DevOps Suivi des performances, contrôle qualité et automatisation des pipelines
Job Vacancy
Data Engineer (Bordeaux)
Published on
BI
Python
Snowflake
3 months
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Contractor job
Développeur ETL (SEMARCHY)
Published on
Azure
ODI Oracle Data Integrator
Semarchy
24 months
100-400 €
Orléans, Centre-Val de Loire
Le client souhaite accélérer la modernisation de sa plateforme décisionnelle pour répondre aux enjeux métiers, réglementaires et technologiques. Pour se faire, Le client a inscrit à sa roadmap 2026 / 2027, différents chantiers permettant de répondre à ces ambitions. D’une part, par la mise en œuvre d’un programme data innovant portant les aspects suivants : Renfort de la qualité de la donnée Mise en place d’une gouvernance de la donnée sur les indicateurs métiers stratégiques Migration des traitements ELT existants vers une solution technologique plus adaptée Refonte du modèle de données du Data Warehouse Et d’autre part, par le maintien en condition opérationnel du système d’information décisionnel existant portant les aspects suivants Analyse et la correction des incidents de production Développement de sujets relatifs à l’évolution de la réglementation
Job Vacancy
Data Engineer Databricks - Paris
Published on
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor job
Data Engineer
Published on
DBT
Snowflake
12 months
500-600 €
Paris, France
Hybrid
En tant que Senior Data Engineer sur le périmètre Finance, vos principales responsabilités seront : Développer sur Snowflake / DBT Cloud les pipelines d’ingestion et de transformation de données. Proposer et contribuer à la conception des modèles de données pour les différentes couches de la plateforme Data. Participer à l’amélioration continue des outils et méthodes de développement sur la plateforme Snowflake. Organiser la collecte des données issues des différents systèmes (digital, POS, OMS, 3PL, WMS, …) sur l’ensemble des territoires où mon client fabrique ou distribue ses produits. En collaboration avec l’équipe Master Data, mettre en oeuvre les briques de Data Quality. En lien avec les Product Owners et les équipes de DataViz Engineers, produire les jeux de données attendus dans le respect des priorités, coûts et délais. Participer activement à la démarche d’amélioration continue. Garantir le bon fonctionnement quotidien des pipelines développés.
Job Vacancy
Data Engineer (H/F)
Published on
ServiceNow
Snowflake
6 months
54k-64k €
400-470 €
Paris, France
Hybrid
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise
Job Vacancy
Data Architecte - Lyon
Published on
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Job Vacancy
Data Engineer
Published on
Collibra
Python
Snowflake
6 months
Liège, Belgium
Hybrid
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Contractor job
Mission Longue de Consultant Snowflake
Published on
Architecture
AWS Cloud
Azure
3 months
180-680 €
Paris, France
Hybrid
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Contractor job
ARCHITECTE DATA SNOWFLAKE AWS-anglais courant- Habilitable H/F
Published on
AWS Cloud
ETL (Extract-transform-load)
Snowflake
40 days
400-600 €
Blagnac, Occitania
La mission consistera à travailler sur : •Frameworks d’ingestion et restitution : oDéfinir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE •Framework « Observabilité & qualité des données » : oDéfinir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. •Monitoring des flux & santé de la plateforme : oContribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) •Plan de migration SSIS + SQL Server → Snowflake : oDéfinir la méthodologie (phases, outils, patterns). oIdentifier les risques et dépendances. •Stratégie d’Access Management : (priorité 2) oDéfinir les rôles, politiques RBAC/ABAC. oGarantir la conformité avec les standards de sécurité et gouvernance. •Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : •Documentation des frameworks ingestion & restitution(As is > To be). •Plan d’observabilité & qualité des données (métriques, outils, roadmap). •[CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. •Plan de migration (méthodologie, roadmap, estimation effort). •Stratégie d’Access Management (modèle de rôles, règles d’accès). •Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Contractor job
Data Platform Engineer - Terraform
Published on
CI/CD
DevOps
JIRA
6 months
400-500 €
Paris, France
Remote
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Contractor job
Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F)
Published on
API
Snowflake
Talend
6 months
400-600 €
Paris, France
🧩 Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F) 📍 Paris – Hybride ( 3 jours sur site) | 📅 Démarrage souhaité : mi-novembre 2025 🎯 Contexte Vous rejoignez une équipe IT en charge de la refonte de l’architecture digitale et des flux d’intégration pour des projets marketplace, e-concession et B2B à l’international. Vous travaillerez en binôme avec un chef de projet senior et serez le point de contact technique et fonctionnel pour les partenaires digitaux et les équipes internes. ⚙️ Vos missions Piloter l’ intégration technique de nouveaux partenaires digitaux (marketplaces, grands magasins, plateformes B2B). Cadrer, suivre et coordonner les projets d’ échanges de données entre systèmes internes (ERP, OMS, PIM, WMS…) et partenaires. Participer à la migration d’une plateforme d’intégration API/ETL (MuleSoft → Talend). Rédiger les spécifications fonctionnelles et techniques liées aux flux API et EDI. Assurer la maintenabilité et la supervision des flux existants (ordonnancement, monitoring, gestion des incidents). Collaborer avec les équipes IT, métiers (digital, logistique, data) et partenaires externes. Contribuer à la standardisation et la documentation des bonnes pratiques d’intégration. 🧠 Votre profil Bac +5 ou équivalent en informatique, systèmes d’information ou génie logiciel. 5 à 10 ans d’expérience en gestion de projets IT technico-fonctionnels. Expérience confirmée dans les flux d’intégration (API / EDI) , idéalement dans un environnement retail / e-commerce / marketplace . Bonne compréhension des systèmes ERP, OMS, PIM, WMS et des échanges inter-applicatifs. Connaissance de Talend (ou autre ETL / ESB), MuleSoft appréciée. Notions d’ordonnancement ( vTOM ) et de data ( Snowflake, SQL ) sont un plus. Excellent relationnel, rigueur, sens du service et goût pour la technique. Anglais professionnel (partenaires internationaux).
Job Vacancy
Responsable de Domaine Data/BI
Published on
Data Warehouse
ETL (Extract-transform-load)
PowerBI
90k-100k €
Antony, Ile-de-France
Hybrid
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Contractor job
Architecte Data - Toulouse
Published on
Architecture
AWS Cloud
Big Data
6 months
Toulouse, Occitania
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Contractor job
ALSL - Tech Manager Data
Published on
Apache Airflow
AWS Cloud
Big Data
6 months
550-620 €
Paris, France
Hybrid
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
Contractor job
Directeur de projet IT (Bordeaux)
Published on
Agile Method
API
Confluence
1 year
100-500 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
En tant que Directeur de projet dans un contexte Agile fortement orienté API avec des enjeux opérationnels et techniques majeurs sur des systémes logistiques, réseaux et infrastructures, votre rôle sera de : Piloter l’ensemble des volets IT liés aux développements et à l’intégration d’un entrepôt logistique. Suivre les projets IT : chiffrages, livrables, risques, budget, périmètre et planning. Gérer la relation IT client, comprendre ses enjeux et y répondre efficacement. Préparer et animer les comités de pilotage internes et clients. Accompagner le client dans l’utilisation et l’exploitation du produit, principalement sur les interfaces applicatives et les flux d’intégration. Coordonner les sujets techniques : o Interfaçage APIs Produits et flux logistiques (commandes, retours, stocks…). o Déploiement réseau, infrastructure et bureautique du nouvel entrepôt. o Développements et intégrations des interfaces de suivi logistique. Piloter les phases de tests d’intégration et UATs : préparation, suivi, exécution et validation des résultats. Assurer le pilotage des implantations IT sur site (réseau, postes, bureautique).
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- freelance tax question
- How to Recover Lost Funds, Usdt? Captain Jack Recovery is here to help
- 5 easy ways to get a job without a CV
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- How Can “Do My Exam for Me” Services Reduce Stress?
- Take Control of Your Printer with Advanced OrcaSlicer Features
Jobs by city
Jobs by country
66 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k