Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 96 résultats.
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance
CDI

Offre d'emploi
Expert Data Snowflake / Azure (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Analytics Engineer

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Freelance
CDI

Offre d'emploi
DATA ENGINEER SNOWFLAKE / DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

6 mois
40k-45k €
400-550 €
Paris, France
Contexte Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Snowflake et/ou Databricks Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data Profil recherché Nous recherchons avant tout un passionné de data et de technologie , avec une forte appétence pour les environnements techniques exigeants. Compétences techniques indispensables : Très bon niveau en Python (clean code, performance, bonnes pratiques) Excellent niveau en SQL Expérience significative sur Snowflake et/ou Databricks Solide culture Data Engineering À l’aise avec les environnements cloud et les architectures data modernes Bon niveau d'anglais Soft skills : Profil geek , curieux et passionné par la data Forte autonomie technique Goût pour le code bien fait et les défis techniques Capacité à échanger avec des équipes techniques exigeantes
CDI

Offre d'emploi
Consultant Data (profil Qlik Snowflake)

AGH CONSULTING
Publiée le
Qlik Sense
Snowflake

40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Freelance
CDI

Offre d'emploi
Product analyst

UCASE CONSULTING
Publiée le
BigQuery
Snowflake
SQL

1 an
40k-65k €
410-810 €
Paris, France
Bonjour 😀 Pour l'un de nos clients, nous recherchons un Product Data Analyst pour accompagner son équipe Produit App Mobile , afin de piloter la prise de décision basée sur la donnée et d’améliorer l’expérience de l’application mobile. Au sein de l’équipe Digital Analytics, vous jouerez un rôle clé dans l’analyse de la performance produit, l’expérimentation et l’optimisation continue, en fournissant des insights actionnables qui orientent la stratégie produit et génèrent un impact business mesurable. Responsabilités principales : Analyse Produit & Performance : Analyser les évolutions produit, les expérimentations (A/B tests) et les optimisations afin de mesurer leur impact sur les principaux KPI de l’application mobile et du business. Insights Stratégiques : Transformer les données en recommandations claires et actionnables afin d’influencer la roadmap produit et les priorités business. Collaboration avec les parties prenantes : Travailler en partenariat avec des équipes transverses pour définir les indicateurs de succès et soutenir les décisions produit basées sur la donnée. Stratégie Analytics & Tracking : Définir et valider les besoins de tracking afin de garantir une collecte de données fiable, une bonne qualité des données et l’intégrité de la mesure. Expérimentation & Optimisation : Identifier des opportunités d’optimisation pour améliorer la conversion et l’expérience utilisateur.
Freelance

Mission freelance
Expert Snowflake(Part Time)

Atlas Connect
Publiée le
Architecture
Data Lake
Microsoft Power BI

4 mois
600-710 €
Île-de-France, France
Le client souhaite mettre en place un socle data sur Snowflake pour améliorer son back-end et fiabiliser son reporting Power BI. Ils ont choisi Snowflake pour sa popularité, mais rencontrent aujourd’hui des problématiques de performance et d’optimisation. L’objectif est de construire un socle data robuste et évolutif, tout en assurant la qualité des rapports destinés au métier. Missions principales : Challenger l’architecture et les développements existants sur Snowflake. Accompagner et superviser l’équipe de développement data (Data Engineers, Architectes). Contribuer directement au développement, à la recette applicative et à la recette détaillée. Optimiser les données pour garantir des reporting fiables et performants. Participer au service classique Snowflake : Data Lake, ingestion, transformation, optimisation. Assurer la montée en compétence de l’équipe sur Snowflake. Profil recherché : Certifié Snowflake (obligatoire). Expérience avérée et pratique sur Snowflake, capable de mettre les mains dans le code et de challenger les équipes. Capacité à travailler avec des profils expérimentés mais moins experts Snowflake. Connaissance et expérience sur la construction de data lakes, optimisation de données et reporting Power BI. Autonomie, rigueur et esprit d’équipe. Environnement : Collaboration avec des Data Engineers et des Architectes. Projets en phase de structuration des use cases : bonne data existante, optimisation et reporting. Mission hybride, flexible, avec interactions sur site et à distance.
Freelance

Mission freelance
DataOps Engineer expert Snowflake

Codezys
Publiée le
Python
Snowflake

3 mois
250-300 €
Bordeaux, Nouvelle-Aquitaine
Localisation : Bordeaux Deadline réponse : 14 janvier 26 Démarrage asap pour 3 mois Partenaires et Freelances Mission : ntégré à la DSI en tant que DataOps Engineer, au sein de l’équipe Data Tech Knowledge de la direction IT DATA, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
DataOps Engineer expert Snowflake(H/F)

Freelance.com
Publiée le
Snowflake

3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Intégré(e) à la direction IT DATA , au sein d’une équipe Data Tech, vous interviendrez sur la mise en place et l’évolution de la stack data , avec une forte dimension DataOps & industrialisation .🔧 Vos responsabilités Concevoir des architectures DATA scalables (Agilité, CI/CD, intégration continue) Participer à l’optimisation des coûts (FinOps) Former les Data Engineers aux outils de la stack data Mettre à disposition des outils d’aide au développement et de monitoring Assurer une veille technologique autour des architectures data Encadrer l’ industrialisation des déploiements applicatifs (bonnes pratiques CI/CD) 🛠 Compétences techniques requises Snowflake : Expert (> 5 ans) Python : Confirmé (2–5 ans) CI/CD : Confirmé (2–5 ans) DataOps : Confirmé (2–5 ans) ETL : Talend / DBT – Confirmé (2–5 ans) ⭐ Points clés Environnement data mature Enjeux de performance & industrialisation 📌 Pour chaque candidature technique, merci d’inclure impérativement : CV du consultant Tests de sélection / mise à jour du niveau de compétences / prise de référence Première grille de compétences en auto-évaluation (PJ)
Freelance

Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa

WorldWide People
Publiée le
DBT
Informatica
Snowflake

6 mois
400-500 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Freelance
CDI

Offre d'emploi
DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE

UCASE CONSULTING
Publiée le
DBT
Snowflake
Tableau software

3 ans
40k-55k €
450-580 €
Paris, France
🔹 DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE🎯 Missions principales Recueil et compréhension des besoins métiers dans un environnement data complexe Conception et développement de pipelines de données robustes et scalables Modélisation des données et transformation via dbt Optimisation des performances liées à de fortes volumétries Mise en qualité, fiabilité et traçabilité des données Contribution aux bonnes pratiques data (tests, documentation, industrialisation) Collaboration étroite avec les équipes BI, métiers et IT 🧠 Prérequis techniques Snowflake : excellente maîtrise (modélisation, performance, volumétrie) dbt : maîtrise confirmée (models, tests, documentation) Tableau : forte expérience (dataviz, performance, bonnes pratiques BI) SQL avancé indispensable Expérience sur des environnements data complexes et fortement industrialisés Notions de gouvernance, qualité et sécurité des données appréciées 🧑‍💼 Seniorité attendue Profil senior 5 à 8 ans d’expérience minimum en data engineering Capacité à être autonome et force de proposition 🤝 Soft skills clés Forte capacité d’analyse et de compréhension du besoin métier Autonomie et sens des responsabilités Rigueur, structuration et exigence technique Aisance dans les échanges avec des interlocuteurs variés Capacité à évoluer dans un contexte exigeant et mouvant
Freelance

Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique

ARTESIA IT
Publiée le
Snowflake

1 an
500-550 €
Belgique
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Freelance

Mission freelance
CHEF DE PROJET MOE BI/DATA

YGL consulting
Publiée le
Snowflake

6 mois
Paris, France
YGL recherche un Chef de Projet BI confirmé à senior pour intervenir sur des projets décisionnels stratégiques . La mission s’inscrit dans un contexte de forts enjeux de pilotage métier , avec des attentes élevées sur la mise en place et le suivi d’indicateurs de performance pour les équipes opérationnelles. MISSIONS: Recueil et analyse des besoins métiers en Business Intelligence Pilotage global des projets BI, de la phase de cadrage jusqu’à la mise en production Gestion du planning, du plan de charge et du suivi des activités Animation des comités projets (Coproj, Copil) et rédaction des comptes rendus Coordination des parties prenantes (métiers, équipes techniques, data) Rédaction, lecture et validation des spécifications fonctionnelles et techniques Suivi de la qualité, des délais et des livrables
96 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous