Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 764 résultats.
Freelance

Mission freelance
MOE Senior / AMOE en GED;

Inventiv IT
Publiée le
Eclipse
GED (Gestion Électronique des Documents)
Java

12 mois
500-550 €
Île-de-France, France
MOE Senior / AMOE avec expérience significative en GED . Mission ; Accompagner les MOE du programme Synergie sur les travaux techniques GED (prioritaire) , BIM Data Management et interfaces SI , de la conception à la mise en production, avec un rôle clé d’expert, de référent technique et de facilitateur MOA/MOE. Responsabilités principales : Expertise et mise en œuvre technique GED (fonctionnalités, paramétrage, maintenance). Conception et intégration d’API et d’interfaces Gestion des sujets SSO, serveurs NAS et environnements techniques. Études de faisabilité, spécifications, chiffrage et pilotage technique. Développement, tests, intégration, validation et mise en service. Pilotage de prestataires (coût / qualité / délai). Assistance MOA / MOE, reporting et participation aux instances projet. Support MCO : maintien en conditions opérationnelles, gestion des incidents et anomalies.
Freelance

Mission freelance
Data Engineer IA & API (GCP & AWS)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker

6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Freelance
CDI

Offre d'emploi
Ingénieur DevOps / Ingénieur de Production – Banque à Distance

Deodis
Publiée le
Ansible
Argo CD
Bash

1 an
40k-45k €
400 €
Nancy, Grand Est
Au sein du projet ORION , vous intervenez sur l’exploitation de la Banque à Distance du groupe BPCE (Caisse d’Épargne et filiales) pour des applications Web et Mobile critiques. Vous êtes en charge du maintien en conditions opérationnelles , de la supervision et du support de production, ainsi que de la gestion des incidents et des astreintes 24/7 . Vous participez activement aux projets de transformation technique , notamment la migration vers des architectures conteneurisées, et collaborez étroitement avec les équipes de développement pour industrialiser et automatiser les déploiements via des chaînes CI/CD . Vous contribuez à l’amélioration continue des processus DevOps , à la mise à disposition automatisée des environnements, au suivi des KPI techniques et de sécurité , tout en intégrant les bonnes pratiques DevSecOps et FinOps afin de garantir performance, sécurité et disponibilité des services.
Freelance

Mission freelance
Tech Lead DevOps CIAM (AWS / SAP CDC Gigya / Cybersécurité)

Gentis Recruitment SAS
Publiée le
API
API REST
AWS Cloud

6 mois
Paris, France
1. Contexte de la mission Notre client déploie une plateforme CIAM basée sur SAP Customer Data Cloud (Gigya) afin de gérer l’authentification et la gestion des identités clients B2B et B2C . La plateforme actuelle comprend : Une base utilisateurs B2C Une base utilisateurs B2B Des bases en marque blanche pour des cas d’usage spécifiques Les enjeux stratégiques de la plateforme sont les suivants : Mise en place d’une expérience SSO unifiée , inspirée de FranceConnect Respect strict des exigences RGPD et cybersécurité Passage à l’échelle pour atteindre 13 millions d’utilisateurs à horizon 2028 Personnalisation des parcours utilisateurs sans impact sur le socle commun (master site) 2. Objectifs de la mission Le Tech Lead CIAM interviendra sur les axes suivants : Pilotage des évolutions techniques de la plateforme SAP CDC (Gigya) Définition et formalisation des standards d’intégration pour les applications B2B et B2C Garantie de la conformité réglementaire (RGPD) et des exigences cybersécurité Accompagnement et montée en compétence des équipes techniques internes 3. Périmètre d’intervention Architecture & Design Revue de l’architecture existante Conception et optimisation des parcours d’authentification Intégration des protocoles OIDC, OAuth2 et SAML Sécurité & Authentification Mise en œuvre de MFA granulaire Intégration OTP (SMS, email) Gestion des mécanismes anti-fraude (Captcha, protection des APIs) Performance & Scalabilité Automatisation des processus RUN Optimisation des performances et de la résilience Raccordement et onboarding applicatif à grande échelle Support & Expertise Rôle de référent technique CIAM Support aux équipes projet et applicatives Contribution à la formation et à la documentation technique 4. Livrables attendus Audit technique détaillé de la plateforme CIAM existante Roadmap d’évolution couvrant : Personnalisation des parcours MFA / OTP APIs et intégrations Procédures standardisées d’intégration applicative Plan de sécurisation conforme aux directives cybersécurité et RGPD 5. Profil recherché Compétences techniques requises Expertise confirmée sur SAP Customer Data Cloud (Gigya) et les architectures CIAM Maîtrise des protocoles d’identité : OIDC, OAuth2, SAML Solide expertise en cybersécurité et conformité RGPD Maîtrise du Cloud public , en particulier AWS Expérience d’intégration multi-applications à grande échelle Compétences en automatisation et scripting (Python, JavaScript) Maîtrise des API REST et des webhooks Connaissance des outils CI/CD et des extensions compatibles avec SAP CDC Mise en œuvre des bonnes pratiques DevOps (déploiement, monitoring, RUN automatisé) Compétences transverses Capacité à évoluer dans un environnement international Travail en contexte multi-projets et multi-équipes Forte capacité de structuration, de standardisation et de transmission
Freelance
CDI

Offre d'emploi
Ingénieur Cloud (AWS/GCP)

Lùkla
Publiée le
Ansible
AWS Cloud
Cloud

1 an
50k-55k €
400-500 €
Île-de-France, France
Ingénieur RUN Cloud AWS / GCP Dans le cadre d’une mission de support et d’expertise, vous interviendrez principalement sur site (3 jours sur site, 2 jours de télétravail par semaine) afin d’assurer le RUN des infrastructures Cloud. Vous assurerez le support technique de niveau 3 sur des environnements Cloud AWS et GCP, en prenant en charge l’analyse, le diagnostic et la résolution des incidents en production. Vous serez également responsable de la gestion des changements, des demandes de droits, de la correction des vulnérabilités et du traitement de l’obsolescence. Vous participerez à la rédaction et à la mise à jour des documentations RUN, des procédures de support et des rapports de post-mortem. Vous travaillerez en étroite collaboration avec des équipes internationales, en anglais, et contribuerez à la montée en compétence des équipes RUN. L’expertise attendue porte sur Terraform, les environnements Cloud AWS et GCP, les outils de déploiement automatisés et les pipelines CI/CD (GitLab CI, Ansible, AWX, Jenkins), ainsi qu’une bonne maîtrise de Python et des technologies Kubernetes. La maîtrise de l’anglais oral et écrit est indispensable.
Freelance

Mission freelance
Data engineer

Deodis
Publiée le
Ansible
Apache Airflow
Apache Kafka

1 an
320-330 €
Île-de-France, France
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Freelance

Mission freelance
Ingénieur Test & Automatisation (QA) – Robot Framework & Postman

LINKWAY
Publiée le
API REST
Gherkin
Gitlab

6 mois
Brest, Bretagne
Nous recherchons un Ingénieur Testeur Automaticien Expérimenté pour rejoindre une équipe en pleine phase de structuration et de consolidation de ses processus qualité à Brest. Dans un contexte où la qualité logicielle est primordiale pour la stabilité de nos livrables, vous interviendrez sur une mission stratégique de transition et de montée en compétences techniques. 1. Réappropriation et Transfert de Responsabilité (Le défi majeur) : Le cœur initial de votre mission consistera à reprendre la main sur un patrimoine de tests existant. Actuellement, une transition est en cours : nous récupérons la responsabilité de tests automatisés historiquement développés par une autre équipe. Votre rôle sera crucial pour auditer, comprendre, exécuter et maintenir ces scripts existants (principalement sous Robot Framework ). Vous devrez assurer une transition fluide, identifier les zones d'ombre, documenter l'existant et garantir que ce transfert ne génère aucune régression sur la qualité des livraisons actuelles. 2. Développement et Automatisation des Tests (Front & Back) : Vous serez le référent technique sur l'automatisation de bout en bout. Côté Front-end : Vous utiliserez votre expertise sur Robot Framework (couplé idéalement à Selenium ) pour maintenir et enrichir les tests d'interfaces (GUI). Votre objectif sera de simuler les parcours utilisateurs critiques pour garantir une expérience sans faille. Côté Back-end : Vous serez en charge de la validation des API et des services web via Postman . Vous devrez créer des collections de tests robustes, valider les codes retours, les payloads et la logique métier sous-jacente. 3. Stratégie d’Augmentation de la Couverture : Une fois la phase de reprise maîtrisée, votre objectif sera d'étendre massivement la couverture de tests automatisés. Vous devrez identifier les fonctionnalités critiques non couvertes, proposer des scénarios de tests pertinents et les implémenter. Vous travaillerez à réduire la dette technique liée aux tests manuels répétitifs en les automatisant, libérant ainsi du temps pour des tests exploratoires à plus forte valeur ajoutée. 4. Intégration CI/CD et Outillage : Vous évoluerez dans un environnement DevOps intégrant GitLab . Vous devrez veiller à ce que les tests automatisés soient correctement intégrés dans les pipelines de déploiement continu (CI/CD). L'utilisation de Squash pour la gestion du référentiel de tests sera votre quotidien pour assurer la traçabilité entre les exigences métiers et les cas de tests. 5. Leadership Qualité (Volet Optionnel mais Stratégique) : Selon votre profil et votre ambition, cette mission offre une dimension évolutive vers un rôle de Lead Test . Vous pourrez être amené à participer activement à l'élaboration de la stratégie de test globale (Plan de Test, choix des outils, définition des KPI qualité). Vous pourrez conseiller l'équipe sur les bonnes pratiques de testing et devenir le garant de la culture qualité au sein du projet.
Freelance

Mission freelance
Ingénieur Sécurité Réseau Confirmé / Expert – Secteur Retail

LINKWAY
Publiée le
Administration réseaux
Ansible
AWS Cloud

6 mois
Île-de-France, France
Dans un contexte de transformation numérique accélérée et de sécurisation accrue des infrastructures critiques, nous recherchons pour l'un de nos clients majeurs du secteur Retail un Ingénieur Sécurité Réseau Confirmé/Expert . Intégré(e) au sein de la Direction des Systèmes d'Information, et plus spécifiquement au cœur de l'équipe Infrastructure et Sécurité en Île-de-France, vous jouerez un rôle pivot dans le maintien, l'évolution et la protection du patrimoine numérique de l'entreprise. Vos responsabilités s’articuleront autour de cinq axes stratégiques majeurs : Architecture et Ingénierie Complexe : Vous serez en charge de concevoir, planifier et déployer des architectures réseaux robustes et sécurisées. Cela implique une maîtrise parfaite des environnements hybrides. Vous devrez garantir la cohérence des flux entre les infrastructures On-Premise et les environnements Cloud (Public et Privé). Vous travaillerez sur la segmentation réseau, la sécurisation des "Landing Zones" dans le Cloud Public (AWS, GCP, Azure) et l'optimisation des architectures existantes pour répondre aux exigences de scalabilité du métier. Maintien en Condition Opérationnelle (MCO) et Sécurité Périmétrique : Vous assurerez l'administration avancée des équipements de sécurité. Votre expertise sur les firewalls (Palo Alto, Fortinet, Forcepoint) sera sollicitée quotidiennement pour la gestion des règles, les mises à jour de firmware et l'analyse des logs de sécurité. De plus, vous gérerez les solutions de répartition de charge (F5 LTM/GTM) pour assurer la haute disponibilité des applications critiques du groupe, ainsi que les services d'accès distants (VPN) et l'infrastructure DNS, vitale pour la connectivité des magasins et du siège. Approche "Service Oriented" et Projets Métiers : Au-delà de la technique, vous agirez comme un partenaire pour les équipes métiers. Vous participerez activement aux phases de cadrage des nouveaux projets applicatifs pour intégrer les contraintes de sécurité et de réseau dès la conception ("Security by Design"). Votre capacité à vulgariser les contraintes techniques pour les interlocuteurs non-techniques sera un atout majeur pour fluidifier les déploiements. Automatisation et Modernisation (NetDevOps) : L'un des enjeux clés de cette mission est la réduction du RUN et des tâches chronophages à faible valeur ajoutée. Vous serez moteur dans l'adoption de pratiques d'automatisation. En vous appuyant sur des outils comme Ansible, Netbox ou Nautobot, vous développerez des scripts et des workflows pour industrialiser la configuration des équipements et la gestion des inventaires, permettant ainsi à l'équipe de se concentrer sur l'ingénierie. Expertise, Support et Amélioration Continue : En tant que référent technique, vous apporterez votre expertise lors d'incidents complexes (niveau 3) nécessitant une analyse fine des paquets et des flux. Vous serez également force de proposition pour l'amélioration continue de l'infrastructure : veille technologique, identification des dettes techniques, et proposition de plans d'action correctifs. Enfin, vous garantirez la pérennité du savoir en produisant une documentation d'exploitation (DAT, DEX, modes opératoires) rigoureuse et à jour.
CDI
CDD

Offre d'emploi
Ingénieur Développement & Support Production – Compliance / AML (H/F)

EXMC
Publiée le
Agile Scrum
Elasticsearch
Git

1 an
60k-70k €
Luxembourg
Ingénieur Développement & Support Production – Compliance / AM (H/F) Mission : La prestation se déroulera au sein de la Feature Team Compliance, en charge des applications liées à la conformité, en particulier pour alimentation des plateformes de filtrage Sanctions/Embargos et AML/Fraude. La prestation consiste au développement autour de cette plateforme ainsi que du support de production (expertise). Le client souhaite mettre en œuvre les évolutions de son socle technique. A ce titre, il souhaite bénéficier de l'expertise d'un consultant en termes de Conception et Développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): - La formalisation des besoins (spécifications fonctionnelles et techniques) - L'assistance aux Différents Utilisateurs et/ou Bénéficiaires - Développements - La stratégie et aux différentes campagnes de tests - Packaging des développements pour déploiement sur les différents environnements de la banque - Support de production et remédiation aux incidents. Livrables attendus Les livrables attendus sont : - Spécifications fonctionnelles/techniques - Développement / source code - Package de déploiement du livrable - Documentation y inclus livrables de change management - Test stratégie / tests cases / rapport d'exécution de tests / support UAT - La conduite du changement - La gestion et l'animation de workshops avec les interlocuteurs métiers
Freelance

Mission freelance
DATA ENGINEER

Codezys
Publiée le
Azure
BigQuery
Business Intelligence

12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Offre premium
CDI
Freelance

Offre d'emploi
Administrateur Datadog

Lùkla
Publiée le
Datadog

3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

764 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous