Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 73 résultats.
Freelance

Mission freelance
Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F)

Publiée le
API
Snowflake
Talend

6 mois
400-600 €
Paris, France
🧩 Chef de projet IT – Flux API / EDI – Retail & Marketplace (H/F) 📍 Paris – Hybride ( 3 jours sur site) | 📅 Démarrage souhaité : mi-novembre 2025 🎯 Contexte Vous rejoignez une équipe IT en charge de la refonte de l’architecture digitale et des flux d’intégration pour des projets marketplace, e-concession et B2B à l’international. Vous travaillerez en binôme avec un chef de projet senior et serez le point de contact technique et fonctionnel pour les partenaires digitaux et les équipes internes. ⚙️ Vos missions Piloter l’ intégration technique de nouveaux partenaires digitaux (marketplaces, grands magasins, plateformes B2B). Cadrer, suivre et coordonner les projets d’ échanges de données entre systèmes internes (ERP, OMS, PIM, WMS…) et partenaires. Participer à la migration d’une plateforme d’intégration API/ETL (MuleSoft → Talend). Rédiger les spécifications fonctionnelles et techniques liées aux flux API et EDI. Assurer la maintenabilité et la supervision des flux existants (ordonnancement, monitoring, gestion des incidents). Collaborer avec les équipes IT, métiers (digital, logistique, data) et partenaires externes. Contribuer à la standardisation et la documentation des bonnes pratiques d’intégration. 🧠 Votre profil Bac +5 ou équivalent en informatique, systèmes d’information ou génie logiciel. 5 à 10 ans d’expérience en gestion de projets IT technico-fonctionnels. Expérience confirmée dans les flux d’intégration (API / EDI) , idéalement dans un environnement retail / e-commerce / marketplace . Bonne compréhension des systèmes ERP, OMS, PIM, WMS et des échanges inter-applicatifs. Connaissance de Talend (ou autre ETL / ESB), MuleSoft appréciée. Notions d’ordonnancement ( vTOM ) et de data ( Snowflake, SQL ) sont un plus. Excellent relationnel, rigueur, sens du service et goût pour la technique. Anglais professionnel (partenaires internationaux).
Freelance

Mission freelance
Architecte Technique

Publiée le
Snowflake

6 mois
400-740 €
Lavaur, Occitanie
Télétravail partiel
🎯 Objectif de la mission : Définir une solution technique orientée data, administrer la plateforme sous-jacente et la mettre en œuvre. 🛠️ Outils & Technologies : Tableau Software Alteryx Snowflake Matillion Azure Data Factory Airflow MS Fabric – Power BI Denodo 📌 Responsabilités : Conception de solutions techniques pour la gestion de gros volumes de données Industrialisation et amélioration continue des traitements Implémentation et opération des projets Data & Analytics Assurer le run en second niveau Veille technologique et contribution à la roadmap Data & Analytics ✅ Compétences requises : Maîtrise des outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international
Freelance

Mission freelance
Directeur de projet IT (Bordeaux)

Publiée le
API
Confluence
Grafana

1 an
100-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Directeur de projet dans un contexte Agile fortement orienté API avec des enjeux opérationnels et techniques majeurs sur des systémes logistiques, réseaux et infrastructures, votre rôle sera de : Piloter l’ensemble des volets IT liés aux développements et à l’intégration d’un entrepôt logistique. Suivre les projets IT : chiffrages, livrables, risques, budget, périmètre et planning. Gérer la relation IT client, comprendre ses enjeux et y répondre efficacement. Préparer et animer les comités de pilotage internes et clients. Accompagner le client dans l’utilisation et l’exploitation du produit, principalement sur les interfaces applicatives et les flux d’intégration. Coordonner les sujets techniques : o Interfaçage APIs Produits et flux logistiques (commandes, retours, stocks…). o Déploiement réseau, infrastructure et bureautique du nouvel entrepôt. o Développements et intégrations des interfaces de suivi logistique. Piloter les phases de tests d’intégration et UATs : préparation, suivi, exécution et validation des résultats. Assurer le pilotage des implantations IT sur site (réseau, postes, bureautique).
Freelance

Mission freelance
ALSL - Tech Manager Data

Publiée le
Apache Airflow
AWS Cloud
Big Data

6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
CDI

Offre d'emploi
Data engineer Snowflake (H/F)

Publiée le
Snowflake
Talend

50k-55k €
Cergy, Île-de-France
Nous recherchons pour le compte de l’un de nos clients un Data Engineer Snowflake (H/F) dans le cadre d’un remplacement : Missions : Concevoir et maintenir des pipelines de données dans Matillion vers Snowflake. Intégrer diverses sources de données (API, bases, fichiers plats) dans Snowflake. Optimiser les traitements SQL et les configurations pour améliorer la performance et réduire les coûts. Mettre en place le monitoring et résoudre les anomalies sur les workflows ETL. Garantir la qualité, la fiabilité et la sécurité des données en production.
Freelance

Mission freelance
Architecte Data - Toulouse

Publiée le
Architecture
AWS Cloud
Big Data

6 mois
Toulouse, Occitanie
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Freelance

Mission freelance
Consultant(e) Talend Snowflake - 90% de TT - Démarrage semaine prochaine

Publiée le
Snowflake
Talend

3 mois
500-550 €
Maisons-Laffitte, Île-de-France
Télétravail partiel
Contexte de la mission Dans le cadre d’un projet de transformation data, notre client recherche un expert Talend Cloud capable d’intervenir dans un environnement intégrant SAP et Snowflake . L’objectif est d’assurer la mise en place des flux d’intégration de données et de garantir leur fiabilité en mode delta . Rôle & Responsabilités Installer et configurer Talend Cloud (installation simple). Concevoir et développer des flux d’intégration pour la récupération de données depuis SAP . Mettre en place les mécanismes de récupération en mode delta afin d’optimiser la performance et la fraîcheur des données. Assurer le transfert et la transformation des données vers Snowflake . Collaborer avec les équipes Data et IT internes pour garantir la qualité et la stabilité des flux. Participer à la documentation et au transfert de connaissances auprès des équipes internes.
Freelance
CDI

Offre d'emploi
Business Analyst Data Collibra

Publiée le
Collibra
Data governance
Snowflake

1 an
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du développement de la data marketplace d'un de nos clients et de la mise en place d’une vision 360° client, nous recherchons un Business Analyst spécialisé Data . Vos missions : Organiser l'étude et recueillir les éléments de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et diriger des ateliers avec les entreprises Alimenter le semantic model / référentiel pour une vision 360° client. Recueillir les besoins métiers et concevoir les modèles sémantiques. Collaborer avec les équipes data
CDI

Offre d'emploi
Architecte Data (Snowflake / Azure) H/F

Publiée le

40k-70k €
Paris, France
Télétravail partiel
En tant que Architecte Data (Snowflake / Azure) H/F, vous jouerez un rôle clé dans la conception, la mise en œuvre et l'optimisation de solutions data basées sur les technologies Snowflake et Azure. Vous serez directement intégré(e) au sein du département des services informatiques. Vos principales responsabilités seront : • Concevoir et déployer des architectures data performantes et scalables sur Snowflake et Azure. • Collaborer avec les équipes de développement et d'infrastructure pour assurer l'intégration des solutions. • Garantir la qualité, la sécurité et la conformité des données. • Participer à l'évolution des bonnes pratiques et standards techniques. • Assurer la documentation technique et les formations internes. • Suivre les innovations technologiques et proposer des améliorations continues.
Freelance
CDI

Offre d'emploi
Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation Description

Publiée le
Apache Airflow
AWS Cloud
Full stack

12 mois
40k-48k €
400-480 €
Malakoff, Île-de-France
Télétravail partiel
Contexte & Objectif Dans le cadre d’un projet Data déjà développé, le client souhaite faire appel à un expert capable de réaliser un audit technique et fonctionnel. En tant que Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation vos principales missions seront les suivantes : Réaliser un audit complet d’un projet existant. Vérifier la compatibilité technique avec Snowflake et les environnements associés. Analyser et traduire le code back/front . Produire des recommandations concrètes : faisabilité, coûts, charge, risques. Intervenir en interface technico-fonctionnelle entre équipes techniques et métiers.
Freelance
CDI

Offre d'emploi
Architect Data

Publiée le
Architecture
AWS Cloud
Azure

12 mois
70k-80k €
600-700 €
Île-de-France, France
Télétravail partiel
Au sein de la Data & IA Fabric d’INVENTIV IT vous serez amené à travailler sur une partie opérationnelle et stratégique. Nous travaillons principalement sur des projets régie auprès de nos clients. Ce poste requiert une solide expérience technique et architecturale, ainsi qu'une expertise pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il implique également une collaboration étroite avec les équipes informatiques, les partenaires commerciaux et externes, et l'ensemble des membres de l'équipe d'intégration. Les compétences suivantes sont essentielles : Leadership et autonomie Engagement sur les sujets Capacité à fournir des justificatifs dans le cadre d’un audit, d’un POC, MVP ou concernant les normes et l’architecture Objectifs et livrables : - Concevoir et proposer des solutions de données utilisant les technologies Azure Cloud au sein de notre cadre de travail (AWS est un +) - Concevoir et proposer des solutions Snowflake et Databricks - Appliquer la stratégie « Data as service » conformément aux bonnes pratiques d’architecture - Concevoir et développer des API/microservices pour enrichir notre cadre de solutions - Soutenir la stratégie d’architecture événementielle basée sur Azure Event Hub et Azure IoT Hub - Contribuer à notre Data Catalog pour l’enrichissement en libre-service - Contribuer à la modernisation et à la sensibilisation aux technologies - Être la personne de référence au sein de l’équipe pour toutes les questions relatives à la Data & au cloud - Animer des ateliers et faciliter la collecte des besoins - Apporter un soutien aux ingénieurs de données sur les sujets liés au cloud - Apporter un soutien à l’équipe Sécurité sur les sujets connexes - Contribuer à la feuille de route et à l’évolution de la Capture de données - Assumer un rôle de critique et de soutien auprès des fournisseurs externes - Capacité de mettre en place une conduite de changement (by design) - Capacité de travailler sur de l’analyse prédictive et préventive - Capacité de simplifier et d’augmenter l’usage de la Data aux métiers, business - Contextualiser et standardiser les données - Répondre aux problématiques de l’accès à la données (données en temps réelles) - Valoriser la transformation digitale et la data au service du business - Fournir de la data dans l’ensemble de cycle de vie du produit - Réduire et optimiser le time to Market - Avoir une approche Data Driven pour chaque produit digital - S’assurer de la cohérence des données entre les systèmes - Capacité d’avoir une ouverture de virtualisation (peu importe les technos - Gouvernance de données fédéré) - Avoir une vision produit, business & métiers / Cadrage & Delivery - Capacité de lier les sujets à une BDM (Analytics) - Création d’Asset majeur pour la performance de l’entreprise ✔️ Vous auditez l’écosystème data et faites des préconisations associées dans le cadre de la modernisation des plateformes Data ✔️Vous élaborez des ’architectures logiques et techniques de plateforme data en tenant compte des besoins ✔️Vous adaptez chaque architecture en fonction du contexte : maîtrise des caractéristiques fondamentales de chaque solution (catalogue des offres de services managés, performance, sécurité, déploiement des data centers…) ✔️Vous définissez le plan de transformation de l'écosystème data et êtes capable d’encadrer les équipes dans la mise en place des architectures préconisées et / ou des plateformes Data Operating model Data : (compétences) - organisation - mission - outils - IA Generative - Time To Market & ROI - industrialiser dans le même délai que le POC - Automatisation / Robotisation Compétences - Snowflake & Databricks - EDA - Architecture - Fonctionnel - Réseau & Sécurité - intégration continue - SQL & BDD - Cloud Azure & AWS - Data - Codage - IA (intelligence artificielle) - Platform Data & Data Market Place - Data Hub & Analytics - Anglais & Français : Courant Langage naturel - Catalogue de données - Systèmes de stockage de données avec outils IA - Données durables et responsable Exemple de réalisation : - Data Market Place / Platform Data - IA Generative (questionnement via un chatbot) à partir de la données simplifiés (Platform Data) - Data hub & Gouvernance Comme nous le disons au sein d’INVENTIV IT, le coeur de la transformation digitale est la Data c’est le pouvoir d’agir pour toutes organisations
CDI

Offre d'emploi
Senior Data Engineer

Publiée le
Java
Snowflake

55k-70k €
Île-de-France, France
Télétravail partiel
Missions principales Concevoir, développer et maintenir des pipelines d’ingestion et de traitement de données à forte volumétrie . Participer à la migration Scala vers Java/Spring et à l’intégration dans Snowflake/Snowpark . Travailler sur l’ architecture et l’optimisation des solutions data (batch & stream). Garantir la qualité du code : tests unitaires et d’intégration, CI/CD, documentation, monitoring. Collaborer avec le Tech Lead et l’équipe , en agile (daily scrums, code reviews, pair programming). Être un référent technique pour l’équipe et contribuer aux choix technologiques. Participer à des projets transverses et assurer la veille technologique sur les nouvelles solutions data. Architecture & concepts Expérience avec architecture medaillon data : Bronze → Silver → Gold. Compréhension des transformations et de la gestion des données selon cette architecture. Capacité à proposer et mettre en œuvre des améliorations pour la performance et la scalabilité. Stack & compétences recherchées Technologies principales : Java (expert, orienté Spark) Spring Snowflake / Snowpark Connaissances attendues : Databricks (full service managé, migration complète) Airflow, GitLab CI SQL Expérience Cloud (préférence GCP, AWS également possible) Compétences complémentaires : Conception de pipelines de données scalables Tests automatisés, monitoring, CI/CD Autonomie et capacité à driver techniquement l’équipe
Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
CDI

Offre d'emploi
Ingénieur Modern Data Stack (H/F) - 13

Publiée le
Apache Airflow
DBT
Microsoft Power BI

Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique
Freelance
CDI

Offre d'emploi
Product Owner Data technico-fonctionnel (PO Snowflake / AWS)

Publiée le
AWS Cloud
Snowflake

1 an
Malakoff, Île-de-France
Télétravail partiel
Mission principale En tant que Product Owner Data Technico-Fonctionnel, vous serez le point de convergence entre les équipes métiers et techniques, et vous piloterez la conception et l’évolution d’architectures data basées sur Snowflake et AWS. Vous assurerez également la gestion d’un sujet spécifique dans le domaine Manufacturing. Missions principales : o Faire le lien entre les métiers et l’équipe technique. o Traduire les besoins fonctionnels en user stories techniques. o Animer et maîtriser les rituels agiles. o Assurer la communication, vulgarisation et restitution auprès du top management (reporting de l’état d’avancement). o Suivi d’un sujet Manufacturing au sein de l’équipe.
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
73 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous