Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 86 résultats.
Freelance

Mission freelance
Data Engineer Snowflake - Lyon

Net technologie
Publiée le
Snowflake

3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
Expert Datastage/TL/Archi pour mon client 

Nicholson SAS
Publiée le
Architecture
IBM DataStage
Snowflake

5 mois
360 €
Val-de-Marne, France
Expert Datastage/TL/Archi pour mon client Entité : Banque Site : Val de Marne, France ; 2 jours/semaine obligatoire sur site Prix d’achat max : 360 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions gère les systèmes d’information du Réseau et de Private Banking. La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Expert ETL Datastage (pas dev senior) --> admin de la plateforme Administrateur d’une plateforme AIX hébergeant les moteurs Datastage pour 30 applications. Ces traitements alimentent à ce jour essentiellement des bases Teradata en cours de migration vers le cloud public sur Snowflake. Bonnes pratiques, support et suivi au quotidien des équipes applicatives utilisatrices de la plateforme. Support au delivery des composants en attendant une automatisation complète Profil : Développeur Expert Datastage/TL/Archi Nombre d’années d’expérience : 8 ans Expérience techniques requises Snowflake IBM InfoSphere DataStage Teradata
Freelance
CDI
CDD

Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)

bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD

36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance

Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F

LeHibou
Publiée le
AI
AWS Cloud
Snowflake

3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Freelance

Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)

TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks

6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Freelance
CDI

Offre d'emploi
Expert Data Snowflake / Azure (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Product Owner Data – Data & Analytics

SKILLWISE
Publiée le
Qlik Sense
Snowflake

3 mois
400-550 €
Île-de-France, France
Nous recherchons pour l'un de nos client un Data Product Owner qui sera chargé(e) de piloter la valorisation de la donnée au sein des équipes Retail et Supply Chain. Il/Elle coordonne le développement de produits data, assure la qualité et la fiabilité des données, et conçoit des tableaux de bord permettant une prise de décision éclairée. Travaillant en méthode agile, il/elle organise les sprints, priorise les besoins métiers, rédige les user stories et garantit la cohérence entre enjeux business et solutions techniques. Grâce à sa compréhension du retail, de la chaîne de valeur supply chain et des dynamiques saisonnières, il/elle identifie les leviers de performance et propose des évolutions continues sur les outils et produits data. Son rôle principal est de transformer la donnée en valeur : fournir aux équipes des insights fiables, des visualisations pertinentes et des solutions data qui améliorent la performance opérationnelle et stratégique de l’entreprise.
Freelance

Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)

Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD

6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.
Freelance

Mission freelance
Team Leader Data engineering

Codezys
Publiée le
Confluence
JIRA
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
CDI
Freelance

Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow

OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake

3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
86 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous