Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 229 résultats.
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
Data Engineer GCP - Anglais niveau C1

ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform

18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Freelance

Mission freelance
Architecte Data (H/F)

Insitoo Freelances
Publiée le
Angular
Java
Jenkins

2 ans
500-595 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lyon, France. Contexte : La présente consultation concerne une application dont les principaux enjeux pour l’année 2026 sont les suivants : Finaliser la reprise des fonctionnalités de l’application historique de télédiagnostic pour permettre son décommissionnement. Récupérer dans l'application l’ensemble des séries de matériel. Poursuivre les évolutions attendues par les activités. Poursuivre l’amélioration de l’exploitation de l’application. Traiter la MCO corrective et préventive, dont des chantiers techniques d’anticipation de l’obsolescence ou de cybersécurité. Les missions attendues par le Architecte Data (H/F) : L’architecte data a pour mission de réaliser la conception technique générale et détaillée sur le périmètre précité, d’accompagner techniquement l’équipe et de développer les programmes sur le périmètre précité, dans l’objectif de mettre à disposition des fonctionnalités à forte valeur ajoutée en respectant les enjeux planning des clients. Il veille à la bonne utilisation des systèmes et programmes déployés et propose des solutions innovantes lorsque des problèmes techniques ou fonctionnels se présentent. Les tâches de l’architecte data sont principalement : Analyser et challenger les spécifications fonctionnelles produites par le métier et l’équipe projet. Assurer la conception technique de solutions modulaires et évolutives. Rédiger les documents techniques. Accompagner techniquement l’équipe. Estimer les charges de réalisation. Implémenter les programmes de traitements de données. Réaliser les tests techniques et unitaires. Résultats attendus : Respect des coûts et des délais. Mise à disposition de solutions satisfaisantes pour les utilisateurs et les commanditaires. Sécurité, fiabilité, performance, ergonomie des applications, en conformité avec le contrat de service passé avec le métier. Solutions en cohérence avec l’urbanisme du SI.
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance

Mission freelance
Expert Réseau Senior (Architecte & Intégration N3)

Sapiens Group
Publiée le
BGP (Border Gateway Protocol)
Cisco
Open Shortest Path First (OSPF)

12 mois
650-700 €
Île-de-France, France
Objectifs de la mission Concevoir des architectures réseau robustes, redondées et sécurisées Déployer et intégrer de nouvelles infrastructures réseau dans un environnement complexe Accompagner la transformation des architectures existantes vers de nouveaux standards Périmètre Infrastructure réseau des systèmes de supply chain et de diffusion audiovisuelle. Activités principales Installation physique des équipements réseau Configuration et administration de clusters de pare-feu Palo Alto Définition et mise en œuvre des règles de sécurité (firewalling) Configuration des environnements Cisco (NDFC Fabric Controller, IPFM) Mise en œuvre et gestion des clusters Cisco VPC Configuration et optimisation des flux vidéo multicast routés Participation aux phases de recette et validation technique Rédaction de la documentation technique (procédures, cahiers de recette) Transfert de compétences vers les équipes internes (ingénierie et support) Migration des environnements vers les nouvelles architectures réseau Livrables attendus Dossiers d’architecture réseau Cahiers de recette Procédures techniques d’exploitation et de maintenance Documentation d’intégration Rapports de migration Supports de transfert de connaissances
Freelance

Mission freelance
Architecte technique / Expert réseau sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
400-800 €
Paris, France
PROPULSE IT Recherche pour un de ses clients grands comptes : Un Architecte technique / Expert réseau sécurité Datacenter L'objectif est d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. L'intervenant doit obligatoirement avoir des compétences avancées en : ▪ Conception d'architecture réseau complexe en datacenter ▪ Déploiement de projet d'envergure en réseau et sécurité ▪ Etudes de faisabilité technique et financière (DAT et Chiffrage des propositions) ▪ Support N2 et N3 sur des infras critiques en production ▪ Maitrise technique avancée les technologies Cisco Nexus/VXLAN, firewall Fortinet, Checkpoint et Palo Alto, F5 LTM et APM, Proxy ZScaler Mission : Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité Mise en œuvre de projets d'infras réseau & sécurité Support technique sur les technologies réseau & sécurité
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)
Freelance
CDI
CDD

Offre d'emploi
Data Scientist IA

R&S TELECOM
Publiée le
CI/CD
Kubernetes

1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
CDI
Freelance

Offre d'emploi
Senior IT Business Analyst – Data Platform Migration – Trading / Risk – Zurich (Remote) – Contract

Avanda
Publiée le

Zurich, Suisse
Avanda is a pan-European IT Services Consultancy. We are looking for a Senior Technical Business Analyst to join our international team at a global client in the Zurich area (remote-friendly), on a strategic, multi-year Market Data to Data & Analytics (DnA) Platform Migration programme in the Trading domain. You will act as the bridge between business / risk stakeholders and federated technical teams, owning reconciliation, sign-off, and requirements engineering end-to-end. THE ROLE Role: Senior Technical Business Analyst Domain: Trading (Commodities, Energy, Financial Markets, Investment Banking) Project: Market Data → Data & Analytics (DnA) Platform Migration Duration: Until March 2028 (phased extensions) Workload: 4-5 days/week (80%-100%) Location: Hybrid – Zurich area / Remote (90-100% remote, flexible) Languages: English (must) – German (strong plus) THE PROJECT Our client is migrating from a legacy market data infrastructure to a modern, federated Data & Analytics (DnA) platform. The programme involves: - Multiple federated technical teams (data mesh / domain-driven model) delivering data products in parallel - Heavy reconciliation and sign-off of risk and market data products with business and risk stakeholders - Migration of regulatory, risk, and trading data flows with full business continuity - A long-term roadmap running through Q1 2028 You'll be joining an international, multi-disciplinary team of project managers, workstream leads, business analysts, data engineers, and architects. YOUR RESPONSIBILITIES As the Senior Technical Business Analyst, you will be the bridge between business / risk stakeholders and the federated technical teams, with focus on: Reconciliation & sign-off – drive reconciliation topics (legacy vs target market data products, risk data products vs current sources) through to formal business and risk sign-off Requirements engineering – gather, clarify, and document requirements from business and risk users; translate them into actionable specifications for the technical teams Translation layer – act as the bridge between business/risk stakeholders and the federated development teams (data engineers, platform engineers, architects) Issue resolution – support business users on data issues and unblock the technical teams on open business or risk questions Technical follow-up – support the PM with technical follow-ups, open item tracking, and stakeholder clarifications Work independently on end-to-end ownership of reconciliation and sign-off topics RequirementsYOUR PROFILE Strong Business Analyst background with solid technical understanding (data platforms, ingestion pipelines, APIs, data modelling) Proven experience in market data, risk, or trading environments Confident engaging both business / risk users and development teams — comfortable on both sides of the table Track record of independent ownership of requirements engineering and reconciliation / sign-off topics Comfortable with federated delivery models (data mesh, domain-driven, agile-at-scale) Strong stakeholder management and communication skills Fluent English (mandatory). German language skills (B2+ / fluent) – strongly preferred for stakeholder interactions Strong Plus / Differentiators Domain experience in Investment Banking, Energy Trading, Commodities Trading, Power & Gas, or Financial Markets Hands-on exposure to ETRM/CTRM systems (Mesap, Endur, Allegro, RightAngle, OpenLink, Aligne) Experience with market data feeds and vendors: Refinitiv/LSEG, Bloomberg, ICE, EEX, EPEX, Trayport, ZEMA, Montel Familiarity with risk concepts: VaR, P&L attribution, position keeping, curves, forward pricing, regulatory reporting (REMIT, EMIR, MiFID II, FRTB) Technical fluency: SQL, REST APIs, JSON, Python (read-level), data modelling, Databricks, Snowflake, Azure Data Platform, Kafka, Airflow Exposure to Data Mesh, Data Lakehouse, or modern data product architectures Tooling: JIRA, Confluence, Miro, Lucidchart, Postman, Swagger/OpenAPI Swiss market experience or based in Switzerland (Zurich, Baden, Aarau, Zug, Basel) Whats on offer Long-term contract – up to 22 months with phased extensions Highly flexible remote setup (90-100% remote) Excellent Rates on offer for the right person High-impact role with direct exposure to senior business, risk, and engineering stakeholders International team environment at a leading client in the Trading domain Work on a strategic, high-visibility platform migration at the intersection of business, risk, and modern data architecture Must be available to occasionally travel to the Zurich area for key meetings/workshops Start within one month from offer. KEYWORDS (for searchability) Senior Business Analyst, Technical Business Analyst, Senior BA, Technical BA, Lead BA, BA Consultant, Data BA, Data Business Analyst, Market Data Analyst, Risk Business Analyst, Trading Business Analyst, Requirements Engineer, Systems Analyst, Functional Analyst, Data Platform Migration, Cloud Migration, Data & Analytics, DnA Platform, Data Mesh, Data Lakehouse, Data Product Owner, Market Data, Reference Data, Curves, Forward Curves, Reconciliation, Sign-off, Trading, Investment Banking, ETRM, CTRM, Energy Trading, Power Trading, Gas Trading, Commodities, Financial Markets, Risk Management, VaR, P&L, Position Keeping, Regulatory Reporting, MiFID II, FRTB, EMIR, REMIT, Mesap, Endur, OpenLink, Allegro, RightAngle, Aligne, Refinitiv, LSEG, Bloomberg, EEX, EPEX, ICE, Trayport, ZEMA, Montel, SQL, REST API, JSON, Python, Databricks, Snowflake, Azure, Kafka, Airflow, JIRA, Confluence, Miro, Lucidchart, Postman, Swagger, OpenAPI, Agile, SAFe, Scrum, Switzerland, Zurich, Baden, Remote, Hybrid, Contract, Freelance, Freiberuflich, Selbstständig, CHF, Day Rate, English, German, Deutsch.
Freelance
CDI

Offre d'emploi
Senior Data Analyst

AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI

3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
Freelance
CDI

Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)

Deodis
Publiée le
Apache Kafka
Python

1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
Freelance

Mission freelance
SAP BW Data Extraction Azure Consultant - Toulouse

Signe +
Publiée le
Azure
SAP BW

6 mois
400-710 €
Toulouse, Occitanie
Dans le cadre du développement de sa plateforme Data Azure, notre client recherche un(e) Analyste SAP Data Ingestion pour gérer l’intégration des données SAP vers Azure, en lien avec les équipes SAP, Data et Gouvernance. Missions : Recueillir et analyser les besoins d’extraction de données SAP Mettre en place et maintenir les pipelines d’ingestion (Azure Data Factory, Data Lake…) Assurer la qualité et la cohérence des données Gérer les incidents, corrections et le bon fonctionnement des flux Documenter les processus et flux de données Informations complémentaires : Démarrage : ASAP Durée : 6 mois renouvelable Localisation : Toulouse (2 jours de remote par semaine) TJM : Selon profil
CDI

Offre d'emploi
Data Analyst (Diversification) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Charenton-le-Pont, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Consultant Data Analyst Direction Financière F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Oracle Database
Python
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

3229 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous