Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Votre recherche renvoie 74 résultats.
Mission freelance
Ingénieur Snowflake
STHREE SAS pour COMPUTER FUTURES
Publiée le
DBT
Snowflake
12 mois
110-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Ingénieur Snowflake: Missions principales : Ø Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Ø Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Ø Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Ø Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Ø Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Ø Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Ø Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Ø Implémenter des tests de qualité des données via les tests dbt Ø Gérer les aspects administratifs des bases Snowflake
Mission freelance
senior/expert dbt/Snowflake
WorldWide People
Publiée le
DBT
Snowflake
3 mois
400-500 €
France
senior/expert dbt/Snowflake Caractéristiques : Client : pharmaceutique 5 à 10 ans d’expérience anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : France Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Mission freelance
Expert DBT Snowflake
ROCKET TALENTS
Publiée le
AWS Cloud
Snowflake
SQL
3 mois
400-550 €
Bezons, Île-de-France
Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie
Mission freelance
Consultant dbt/Snowflake
CS Group Solutions
Publiée le
Data Mesh
DBT
Snowflake
6 mois
430-450 €
Île-de-France, France
Nous recherchons un Consultant dbt/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Offre d'emploi
Consultant FinOps Snowflake
VISIAN
Publiée le
Snowflake
1 an
Lille, Hauts-de-France
Contexte L’usage croissant de Snowflake va entraîner une hausse des coûts et nécessite : une gouvernance FinOps structurée, une montée en compétence des équipes, un suivi plus fin des consommations avec un accompagnement personnalisé des utilisateurs. Nous souhaitons donc définir et déployer une démarche FinOps adaptée à l’environnement Snowflake d’une grande entreprise internationale (périmètre international), afin d’optimiser les coûts, améliorer la visibilité budgétaire, monter en compétences les utilisateurs, renforcer la responsabilisation des équipes Data, Métier & IT.
Mission freelance
FinOps Snowflake (H/F)
Insitoo Freelances
Publiée le
Snowflake
12 mois
400-550 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un FinOps Snowflake (H/F) à Lille, France. Contexte : L’usage croissant de Snowflake va entraîner une hausse des coûts et nécessite : - une gouvernance FinOps structurée, - une montée en compétence des équipes - un suivi plus fin des consommations avec un accompagnement personnalisé de nos utilisateurs Les missions attendues par le FinOps Snowflake (H/F) : Définir et maintenir l’architecture technique (référentiel) de tout ou partie du système d’information en veillant à la cohésion entre les aspects matériels, applicatifs, systèmes d'exploitation, réseaux… • Garantir la cohérence, la pérennité et analyse les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante • Etablir des préconisations pour tout nouveau projet ou nouvelle technologie et conseille l'urbaniste sur l'utilisation et les implémentations possibles des outils • Communiquer l'architecture auprès des équipes projet (conception, développement, intégration, tests...) • Organiser les choix de veille technologique • Garantir les bonnes performances de l'architecture, de la stabilité, d'évolution, et des délais de réponse des services • Définition et gestion du référentiel du système informatique sur les plans : outils, procédures, normes, vocabulaire, sécurité… • Définition et gestion des standards techniques • Pour tout nouveau projet ou toute nouvelle technologie, participer à l’étude d’impact sur l’architecture existante ou prévisionnelle • Préconiser des choix techniques en vue d’assurer la cohérence de cette évolution • Conseiller l'urbaniste sur l’utilisation et les implémentations possibles des outils informatiques et de télécommunications • Cadrage & diagnostic : Évaluation de la maturité FinOps actuelle en s’appuyant sur des contributeurs data et IT déjà identifiés (état des lieux de ce qui est déjà mis en place)
Mission freelance
Data Engineer Snowflake (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Offre d'emploi
Data Engineer dbt / Snowflake Senior (H/F)
Link Consulting
Publiée le
DBT
Snowflake
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur international du secteur pharmaceutique, recherche un Data Engineer Senior dbt / Snowflake (H/F) afin de renforcer sa plateforme data analytique. Vos missions : Au sein d’une équipe data internationale, vous interviendrez sur : La conception et le développement de pipelines ELT performants La modélisation des données analytiques (faits, dimensions) L’optimisation des performances Snowflake et requêtes SQL La mise en œuvre des bonnes pratiques DataOps et CI/CD La gestion de la sécurité des données (RBAC, RLS, masquage dynamique) L’ingestion de données depuis des environnements cloud AWS La mise en place de tests de qualité et de monitoring data Les compétences techniques Snowflake (Time Travel, Zero Copy Cloning, Snowpipe) dbt (models, macros, tests, snapshots, DAGs) SQL avancé AWS S3 Git, CI/CD, automatisation DataOps
Offre premium
Mission freelance
Développeur Semarchy
CS Group Solutions
Publiée le
Git
Jenkins
ODI Oracle Data Integrator
6 mois
Orléans, Centre-Val de Loire
Nous recherchons un Développeur Semarchy Les missions sont les suivantes : Apporter des préconisations sur les choix de conception & réalisation Concevoir et développer les évolutions, en tenant compte des besoins métiers actuels et futurs. Identifier les impacts sur les applications dépendantes Rédiger des livrables projets du chantier (Note de livraison, bon de livraison, dossier de création de chaines) Donner de la visibilité aux membres de l'équipe de développement (via des Compte rendu, de l’animation de comité) Interagir avec un nombre important d’acteurs : développeurs, chefs de projets SI, MOA, urbanistes SI, experts techniques, correspondants métiers, etc. Pour mener cette prestation, le dispositif proposé doit présenter au minimum les aptitudes suivantes : Avoir des compétences techniques avérées : Maîtriser les outils développements : XDI semarchy La maitrise des compétences techniques suivantes est un plus : Maitriser l’environnement Snowflake Connaitre le fonctionnement de la moulinette de migration fournie par Semarchy afin de réaliser la bascule du code ODI vers XDI de Semarchy Maitriser l’environnement Oracle Maîtriser les outils développements : ODI Maitriser les outils de déploiements : Jenkins, Git, Terraform, Sqitch Maitriser l’interfaçage avec le cloud Azure La maitrise du langage SAS est un plus En termes de savoir-être, il est attendu des intervenants : Autonomie Être force de proposition Disposer d’une capacité d’adaptation Être rigoureux et organisé Appétence au travail en équipe
Mission freelance
249565/Administrateur Snowflake
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
Administrateur Snowflake * Expertise avancée sur Snowflake : architecture, Virtual Warehouses, RBAC, performance. * Compétences solides sur AWS (réseau, PrivateLink, Direct Connect). * Maîtrise de Terraform pour gérer l’IaC Snowflake / AWS. * Connaissances confirmées en DataOps, CI/CD, pipelines de déploiement (Snowflake, dbt, Airflow). * Maîtrise des sécurités avancées : Key-Pair, Network Policies, intégrations externes. * Compétences en scripting SQL/Python, Snowflake Tasks & Streams pour automatisations. * Capacité à assurer un troubleshooting avancé : requêtes lentes, locks, optimisation. * Sensibilité FinOps : monitoring de consommation, optimisation de coûts, Resource Monitors. Contexte de la mission * Environnement technique basé sur Snowflake hébergé sur AWS, incluant PrivateLink, Direct Connect, dbt, Airflow et Terraform. * Projet stratégique de migration d’Oracle Exadata vers Snowflake dans le cadre de la stratégie NextGen. * Travail en co‑construction avec le pôle archi pour les revues d’architecture et la définition de l’architecture cible. Objectifs de la mission * Participer au design et au build des fondations de la plateforme Snowflake (sizing, isolation des workloads). * Mettre en place la sécurité cible : matrice RBAC, gestion des accès, modèles d’authentification. * Créer et maintenir les socles d’Infrastructure as Code avec Terraform. * Assurer la gestion courante et la sécurisation de la plateforme : rôles, utilisateurs, Network Policies, comptes techniques, intégrations externes. * Optimiser les performances, les coûts et la fiabilité : FinOps, tuning, monitoring, troubleshooting. Compétences demandées Compétences Niveau de compétence Programmation Python Avancé Snowflake Data Cloud Expert IBM Terraform Expert Optimisation SQL Avancé AWS Confirmé cicd Confirmé
Offre d'emploi
Senior Engineer Snowflake
VISEO
Publiée le
Cloud
DBT
Snowflake
12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Mission freelance
Consultant MSBI ( Snowflake, DBT, Terraform)
TAHYS RECRUITMENT SOLUTIONS
Publiée le
DBT
Microsoft Analysis Services (SSAS)
Microsoft SSIS
12 mois
Paris, France
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-50k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : bh4lb59dqp
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 12zcorxp80
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
74 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois