Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 257 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst confirmé

VISIAN
Publiée le
Apache Kafka
Exadata Cloud@Customer (ExaCC)

1 an
40k-45k €
260-500 €
Paris, France
Descriptif du poste Une organisation bancaire majeure a lancé en S2 2025 la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que l'organisation recherche un Business Analyst confirmé pour bien comprendre l'ensemble des besoins qui arrivent actuellement, participer à leur analyse, mais aussi aider à coordonner l'ensemble des travaux pour en assurer la bonne livraison, dans les temps. La mission consistera à intégrer l'équipe agile en place, clarifier les besoins exprimés par les autres équipes fonctionnelles et techniques notamment du programme, afin de clarifier la backlog de l'équipe et participer à sa planification avec le tech lead et ses coéquipiers.
Freelance

Mission freelance
Data Ingénieur Spark - Rennes

Net technologie
Publiée le
Apache Spark

3 mois
Rennes, Bretagne
Dans le cadre de la création d’une nouvelle plateforme Data , le Data Engineer Senior intervient sur l’ensemble du cycle de vie de la donnée . Il conçoit, développe et maintient des pipelines de données batch et streaming en Spark et Python , contribue à la mise en place d’une architecture Lakehouse moderne , et garantit la qualité, la fiabilité et la sécurité des données . Le rôle inclut l’ industrialisation des traitements (CI/CD, DataOps), l’observabilité, la documentation et une forte collaboration avec les équipes techniques et métiers.
Freelance

Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino

WorldWide People
Publiée le
Apache Kafka
DBT
Python

12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Freelance
CDI
CDD

Offre d'emploi
DevOps engineer (KAFKA)

Halian
Publiée le
Apache Kafka
Azure DevOps
DevOps

3 ans
Luxembourg
Relocalisation au Luxembourg ou à la frontière entre la France et le Luxembourg requise, car il s’agit d’un rôle hybride et non en télétravail complet. Notre client renforce une équipe DevOps responsable des environnements Windows, Unix et Azure. Le poste implique la gestion des opérations, l’automatisation et la sécurité pour des applications critiques. Responsabilités : Administrer et améliorer Apache Kafka : RBAC, architecture, gouvernance des topics/ACL, intégration des applications et accompagnement des membres de l’équipe. Gérer Tomcat/Apache et optimiser les configurations. Assurer la gestion complète des certificats SSL (CSR, chaînes de certificats, renouvellements). Automatiser les processus avec Ansible et appliquer les bonnes pratiques Git. Mettre en œuvre les processus ITIL (Incident, Changement, Problème), maintenir la documentation et garantir une communication claire. Fournir un support de niveau 2/3 et participer aux astreintes. Qualifications et compétences : Apache Kafka : RBAC, architecture, intégration, mentoring. Tomcat / Apache : Configuration et optimisation. Gestion SSL : Certificats, CSR, renouvellements. Ansible : Automatisation et CI/CD. Git : Maîtrise des bases du contrôle de version. ITIL : Processus Incident, Changement, Problème. Atouts supplémentaires : IBM WebSphere (WAS), Red Hat JBoss EAP, IIS, VTOM, Nexus, IFS, expérience avec Red Hat sur Power Systems.
Freelance
CDI

Offre d'emploi
Data Ingénieur Spark

NEO SOFT SERVICES
Publiée le
Apache Spark
PySpark
Spark Streaming

12 mois
35000, Rennes, Bretagne
ans le cadre d’un programme de transformation Data mené au sein d’une grande organisation, une équipe projet pluridisciplinaire travaille à la mise en place d’une nouvelle plateforme Data. Nous recherchons un Data Engineer senior disposant d’une expérience confirmée sur les traitements de données en Spark et Python , capable d’intervenir sur l’ensemble de la chaîne de valeur de la donnée. Responsabilités principales En tant que Data Engineer Senior, vous serez amené à : Concevoir, développer et faire évoluer des pipelines d’ingestion de données en batch et en temps réel Mettre en œuvre des traitements Data fiables, industrialisés et facilement observables Participer à la définition et à la construction d’une architecture Lakehouse moderne Assurer la qualité, la traçabilité et la cohérence des données tout au long de leur cycle de vie Contribuer aux démarches d’ industrialisation et d’automatisation (CI/CD, DataOps) Travailler en étroite collaboration avec les architectes Data, les équipes plateforme, les responsables produit et les métiers Appliquer les principes de sécurité by design et veiller au respect des exigences de conformité Produire la documentation technique et participer au partage de connaissances au sein des équipes
Freelance
CDD
CDI

Offre d'emploi
Consultant Système Vidéoprotection

Freelance.com
Publiée le
Spark Streaming

1 an
40k-80k €
400-550 €
Noisy-le-Grand, Île-de-France
Client : TRANSPORT Poste : Consultant Système Vidéoprotection Expérience : +10 ans Localisation : Noisy le Grand Démarrage : ASAP Objectifs/Descriptif de mission : L’équipe Sûreté et Services Vidéo a en charge la conception, l’ingénierie de maintenance et pérenne : - des logiciels de supervision de la Sureté hébergés en Datacenter - du service vidéoprotection et de ses constituants : solutions type Vidéo Management System (Milestone dans le cas présent), des services d’infrastructures associées, d’applications clientes, d’équipements Vidéo (caméras, décodeurs). L’ensemble repose sur une infrastructure dédiée et utilise des protocoles réseaux spécifiques type Multicast. Avec 12 000 caméras déployées et 2,3 Po de données stockées, le service de vidéoprotection du client est un des plus importants d’Europe. Activités d’architecture Systèmes industriels Activités menées au niveau Système Vidéo : o Définir les architectures de référence vidéo et veiller à ce que les principes d’ingénieries génériques soient déclinés pour l’ensemble des projets, o Maintenir et alimenter un référentiel d’architecture (ex : architecture de référence, méthodologie de conception, roadmaps, notes de cadrage stratégiques, standards techniques, etc…), o Piloter ou contribuer à la définition ou mise à jour de schémas directeurs pour les services de communication de TSI, o Contribuer à des programmes de gestion d’obsolescence du système Vidéo, o Réaliser des études de cadrage en amont des projets et le cas échéant mener des études de marchés, o Réaliser des études technico-économiques sur des sujets innovants et le cas échéant piloter des POC (« Proof of concept »), o Réaliser de la veille technologique en cohérence avec les orientations stratégiques de l’entreprise et animer le partage d’informations au sein de l’organisation, o De manière ponctuelle, rédiger ou contribuer à rédiger des dossiers de spécification générale. o Valider les cahiers de tests des produits / sous-systèmes et leurs cohérences vis-à-vis du système o Valider les stratégies de migration et de déploiement des produits / sous-systèmes et leurs cohérences vis-à-vis du système.
Freelance

Mission freelance
Développeur Logiciel Embarqué Java (H/F)

Cherry Pick
Publiée le
Apache Kafka
Apache Maven
C/C++

12 mois
560-670 €
Paris, France
Au sein d’un environnement IT critique à très grande échelle, vous intégrerez une équipe en charge d’un système central événementiel asynchrone , par lequel transitent les informations de plusieurs dizaines de millions d’équipements connectés. Ce système assure notamment l’exécution de services, la collecte de données de mesure et le pilotage à distance d’équipements terrain. Vous interviendrez plus précisément sur un logiciel Java embarqué , déployé sur des concentrateurs, assurant l’interface entre les équipements de terrain et le système d’information central. Les équipes couvrent l’ensemble du cycle de vie applicatif : architecture, conception, choix techniques, développement, tests, déploiements (jusqu’en production) et support. Missions : En tant que Développeur Logiciel Embarqué Expert , vos responsabilités incluent : Participation à l’amélioration continue de l’infrastructure Développement de nouvelles fonctionnalités Développement de fonctionnalités sur matériels embarqués Maintenance et évolution des pipelines CI/CD (Jenkins) Livraisons en environnements de recette et de production, suivi post-déploiement Collaboration étroite avec les équipes de développement et d’exploitation Reprise des tests de performance et mise en place d’un banc de performance Mise en place et exploitation de bancs de test incluant : Concentrateurs Raspberry Pi Modems et filtres CPL Livrables attendus : versions applicatives issues du développement du logiciel embarqué.
CDI
Freelance

Offre d'emploi
Responsable Applicatif / Développeur(se)

Lùkla
Publiée le
Apache Kafka
C/C++
Java

6 mois
Lille, Hauts-de-France
Dans le cadre de l'extension d'un des périmètres projet de notre client, nous recherchons un RA / dev qui souhaite toucher à tout et qui sait s’adapter à différents contextes Analyse Contribue à la définition des spécifications générales - Réalise l'analyse technique et l'étude détaillée Adapte et paramètre les progiciels applicatifs Assure le suivi des actions d’amélioration continue identifiées Qualification Élabore les jeux d'essais pour les tests unitaires d'intégration Effectue les tests unitaires Identifie et traite les dysfonctionnements Développement Réalise les modules (objets et composants logiciels) Assemble les composants Rédige les documentations Mise en place d’indicateurs de performance de l’application Maintenance A en charge la maintenance corrective A en charge la maintenance évolutive Administre les composants logiciels réutilisables et met à jour la nomenclature Apporte des solutions aux problèmes rencontrés en production Partage sa connaissance des problèmes rencontrés en production Livrables Code documenté suivant les règles et référentiels de l'entreprise Nombre de corrections en phase de recette Performance des composants développés Respect du délai dans la réalisation des modifications Nombre de régressions
CDI

Offre d'emploi
Data Analyst Java Spark GCP (H/F)

Amiltone
Publiée le
Java

30k-35k €
Lyon, Auvergne-Rhône-Alpes
Vos missions ? En tant que Data Analyst Java Angular (H/F), vous serez en charge des missions suivantes: - Le développement des tâches qui vous sont assignées en respectant les spécifications - Le Code Review avec les autres développeurs du projet - L'écriture de tests unitaires et fonctionnels durant vos développements - L'industrialisation de vos développements via notre PIC (Jenkins) - La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique : - Python Spark GCP - BDD : SQL (MySQL, PostgreSQL, SQLServer) et/ou NoSQL (MongoDB, Cassandra, Redis) - Outils : Git, Jenkins, Jira
Freelance

Mission freelance
Consultant ETL confirmé – Apache Hop / Pentaho (H/F)

Amontech
Publiée le
Apache
ETL (Extract-transform-load)

1 an
Île-de-France, France
Secteur : Finance Dans le cadre du renforcement de nos activités Data pour un client du secteur Finance , nous recherchons un consultant ETL confirmé disposant d’une expertise réelle sur Apache Hop (ou Pentaho) , pour intervenir au sein d’une équipe Data expérimentée. 🚀 Vos missions Concevoir, développer et déployer des flux ETL complexes sous Apache Hop Optimiser et maintenir des traitements existants Participer à la mise en production et au support technique Contribuer aux choix d’architecture Data et aux bonnes pratiques Accompagner la montée en compétences des équipes internes 🛠️ Environnement technique (exigences impératives) ETL : Apache Hop (fortement souhaité) ou Pentaho – expérience confirmée exigée Bases de données : Oracle & MySQL SQL / PL-SQL : confirmé XML : confirmé Unix / Linux : confirmé Outils : Eclipse, Maven, SVN, Git, Nexus Outils collaboratifs : Jira, Confluence, Snow IT 👉 Une première expérience dans le secteur Finance est un plus apprécié.
CDI
CDD
Freelance

Offre d'emploi
Middleware / Ansible – Industrialisation & Automatisation

FIRST CONSEIL
Publiée le
Ansible
Apache Tomcat
Jboss

6 mois
40k-45k €
300-490 €
Orléans, Centre-Val de Loire
🔎 Expert Middleware / Ansible – Industrialisation & Automatisation Dans le cadre d’un programme d’industrialisation et d’automatisation des infrastructures middleware, nous recherchons un expert Ansible / Middleware pour intervenir au sein d’une DSI de grande envergure , sur des environnements critiques et fortement industrialisés. 🎯 Objectifs de la mission Mettre en œuvre et administrer des plateformes middleware Industrialiser et automatiser les tâches récurrentes via Ansible Automation Platform Contribuer à la fiabilité, la supervision et la continuité de service des environnements 🛠️ Descriptif de la mission Mise en œuvre, industrialisation et administration de serveurs d’applications (Tomcat, JBoss EAP) Automatisation des actions récurrentes via Ansible Automation Platform Préconisation et traitement des besoins liés à la supervision et à l’automatisation Contrôle et maintien des dispositifs de sauvegarde et de restauration Qualification et mise en œuvre des évolutions techniques Middleware Adaptation et maintien des outils d’exploitation 📄 Tâches & livrables Rédaction, mise à jour et maintien de la documentation d’exploitation (procédures, notes techniques, comptes-rendus) Contrôle de la bonne application des procédures et règles d’exploitation 📍 Localisation Mission sur site , au sein d’un datacenter en région Centre-Val de Loire .
CDI

Offre d'emploi
Développeur Java Kafka/Python F/H

ACENSI Ile de France
Publiée le
Apache Kafka
Java
Python

Île-de-France, France
Dans le cadre d’un projet stratégique en finance de marché, nous recherchons un expert technico-fonctionnel pour intervenir sur une plateforme de pricing utilisée dans un environnement critique, réglementé et international. La mission porte sur le développement et l’évolution d’une librairie de pricing Java déployée sur une grille de calcul, ainsi que sur des applications Cloud associées, utilisées par des équipes métiers et IT à l’échelle européenne. Missions principales : Analyse et formalisation des besoins métier Rédaction des spécifications fonctionnelles et techniques Développement et maintenance applicative en Java 17 et Python Maintenance et évolution d’une librairie de pricing (Apache Ignite) Réalisation d’analyses quantitatives : courbes de taux, cashflows, sensibilités, pricing d’instruments structurés Définition et exécution des tests (unitaires, fonctionnels, intégration, performance) Support aux équipes IT et métiers Analyse et accompagnement des migrations Cloud Support à la production et gestion des incidents Participation aux déploiements et à la gestion des environnements
Freelance

Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN

Inventiv IT
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)

6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Freelance

Mission freelance
TechLead Data Engineer

MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark

6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
CDI
Freelance

Offre d'emploi
Ingénieur Ops / Administrateur système

CGI
Publiée le
Apache
Apache Tomcat
Jboss

1 an
Lyon, Auvergne-Rhône-Alpes
📍 Localisation : Lyon 📅 Démarrage : ASAP (au plus tôt) ⏳ Durée : 1 an renouvelable 🎯 Type : Freelance – Portage salarial uniquement 🏢 Client final : Grand acteur du secteur de l’énergie Pour un de nos clients grands comptes du secteur de l'Energie, nous recherchons des OPS. Vos missions principales seront les suivantes : Piloter et prioriser les différents entrants sur son périmètre (Mails, Demandes, Incidents, Problèmes, CYBER) Prendre en charge la réalisation des actions de N2 qui en découle. · Traitement des demandes/résolution d’incident/problème : gestion OS (Linux, Windows Serveur), gestion middleware, installation et mise à jour de package, analyse de log et diagnostique, paramétrage technique, Intervention dans le cadre de chantier, escalade au N3· Analyses et préconisations technico-fonctionnelles· Réalisation de gestes procédures sur les base de données (oracle, postgresql)· Mise en place/modification d’éléments d’outillage : politique de supervision (centreon, CloudWatch), chaîne d’ordonnancement, sauvegarde, script d’exploitation , cahier des charges de supervision ihm), création de dashboard de supervision· CYBER : déploiement de patchs, suppression de package obsolètes, maintien à jour du patrimoine de secrets· Porter et garantir l’amélioration continue (analyse ITSM, diminution des entrants, automatisation, etc…)· Être acteur de l’optimisation des activités en procédurant et en transmettant les activités au niveau inférieur (shift-left)· Mise à jour des reportings d’avancement des actions sous forme de backlog,· Mise à jour des suivis de crises.· Initialisation et consolidation des Retours d’expériences sur les incidents et crises et suivi de la réalisation des plans d’actions· Mise à jour des référentiels· Rédaction et validation de procédures et modes opératoires· Participe activement aux différents évènements planifiés (Mise en Production, etc…) autant dans la préparation que dans la réalisation des actions· Piloter le cycle de vie des différentes applications (accostage, approvisionnement, décommissionnement) Qualités requises : Administrateur système ou ingénieur OPS, vous disposez d'une première expérience sur un poste similaire. Vous maîtrisez Linux, êtes familiarisés à plusieurs serveurs d'application et serveurs Web (Weblogic, Apache, Tomcat, Jboss...), et vous disposez d’une expérience sur un ordonnanceur (Control-M). Vous êtes dynamique et réactif ou réactive, vous avez une bonne capacité de travail en équipe dans un contexte où bonne organisation et autonomie sont des facteurs clés de réussite. A compétences égales ce poste est ouvert aux travailleurs en situation de handicap.
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

257 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous