L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 569 résultats.
Mission freelance
Architecte Azure – Projet IA & Industrialisation
Freelance.com
Publiée le
Azure
Azure AI
2 mois
710-770 €
Puteaux, Île-de-France
Dans le cadre de l’industrialisation d’un Proof of Concept innovant basé sur une approche d’IA agentique, vous interviendrez en tant qu’Architecte Azure afin de structurer et fiabiliser un système de génération de tests automatisés à grande échelle. Ce dispositif vise à assurer des tests continus sur un large périmètre de services cloud. Votre rôle consistera à analyser les plans de tests et les scripts générés par les agents intelligents, à en évaluer la pertinence, la couverture et la robustesse, puis à les challenger afin d’en améliorer la qualité. Vous serez également force de proposition sur l’évolution de l’architecture globale, notamment en optimisant les interactions entre les agents IA et les services cloud, ainsi qu’en affinant les prompts utilisés. Cette mission requiert une forte capacité d’analyse, un regard critique sur les productions automatisées et une expertise approfondie de l’écosystème Azure afin de garantir une montée en maturité vers un modèle industriel fiable et performant
Offre d'emploi
Analyste Concepteur Pacbase - RUN (F/H)
CELAD
Publiée le
35k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ CDI (35-45K€) - 2 jours de télétravail / semaine - Lyon - Expérience de 3 ans minimum Envie d’un nouveau challenge où vos compétences en Cobol prennent tout leur sens ? Bienvenue chez CELAD ! Nous poursuivons notre développement et recherchons actuellement un.e Analyste Concepteur Pacbase - RUN pour intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Pourquoi nous avons besoin de vous ? Le système d’information bancaire est en pleine modernisation. De nouveaux projets se lancent, et en parallèle, les applications existantes doivent être maintenues et optimisées. C’est là que vous intervenez : vous êtes le.la garant.e du bon fonctionnement et de l’amélioration continue. Votre objectif principal : analyser, corriger et fiabiliser les applications tout en contribuant à leur évolution. Votre mission au quotidien : Au sein d’une organisation en mode produit, vous serez au cœur de la vie des applications : - Prendre en charge les tickets d’incidents - pour rétablir rapidement un service attendu par les utilisateurs - Analyser et diagnostiquer les anomalies - comprendre la racine du problème pour éviter les récidives - Développer et maintenir les applications - assurer leur stabilité, tout en intégrant les évolutions demandées - Proposer des pistes d’amélioration - votre regard compte pour faire évoluer les pratiques et outils
Offre d'emploi
Business Analyst SharePoint Online (Fonctionnel)- intranet
RIDCHA DATA
Publiée le
Business Analyst
Intranet
SharePoint Online
1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : ASAP ⏳ Durée : Mission longue 🌍 Contexte international 🚀 Contexte de la mission Dans le cadre de la refonte d’un intranet global sous SharePoint Online (Microsoft 365) , nous recherchons un Business Analyst fonctionnel pour accompagner les équipes métiers dans la définition et la mise en place d’une plateforme moderne et collaborative. 👉 L’objectif : proposer une expérience utilisateur fluide, homogène et adaptée à un environnement international. 🎯 Votre rôle En tant que Business Analyst fonctionnel , vous êtes l’interface clé entre les métiers et les équipes IT, avec une forte orientation recueil de besoin et conception fonctionnelle (pas de technique / pas de développement). 🧩 Vos missions principales 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les différentes parties prenantes Formaliser les besoins (user stories, use cases, parcours utilisateurs) Identifier les axes d’amélioration des processus existants 📝 Conception fonctionnelle Rédiger les spécifications fonctionnelles Structurer le contenu : navigation, taxonomie, métadonnées Contribuer à la définition de l’expérience utilisateur (UX) Construire et gérer le backlog fonctionnel 🤝 Coordination & accompagnement Faire le lien entre métiers et équipes techniques Participer aux phases de recette (tests fonctionnels, UAT) Accompagner le changement (supports, communication, formation) 🌍 Environnement international Interagir avec des équipes internationales Assurer la cohérence entre besoins locaux et standards globaux 🛠️ Environnement fonctionnel SharePoint Online (Microsoft 365) Outils collaboratifs (Teams, etc.) Méthodologie Agile / Scrum
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance. • Capacité à interagir avec des équipes techniques et métiers
Mission freelance
IT Manager / Tech Lead Senior – JAVA
Tenth Revolution Group
Publiée le
IA Générative
Java
24 mois
500-800 €
Nord, France
Contexte: Rejoignez un environnement où la technologie n’est pas une fin en soi, mais un levier de transformation majeure. Nous ne cherchons pas de simples experts, mais des partenaires de croissance capables de piloter des projets d'envergure sur le long terme (missions de 2 ans minimum). Dans un cadre hybride (3 jours de télétravail), vous porterez une vision pragmatique de l'innovation, où l'IA est intégrée comme une alliée quotidienne pour décupler l'efficacité opérationnelle. Missions principales Direction Technique & Stratégique : Piloter le développement et l’optimisation d’applications critiques, en garantissant des choix technologiques pérennes et performants. Leadership & Coaching : Encadrer, motiver et faire grandir une équipe technique dans un environnement collaboratif et agile. Traduction du Besoin Métier : Agir comme un pont entre les enjeux business et les solutions techniques pour apporter une valeur concrète et mesurable. Pilotage de la Performance : Résoudre des problématiques techniques complexes tout en optimisant les processus de delivery. Ambassadeur de l’Innovation : Incarner une approche décomplexée et pragmatique de l’IA au service de la productivité des équipes. Environnement technique Core : Java 17+ (Expertise requise sur les versions récentes). IA : Intégration d’outils d’IA générative dans le workflow de développement (approche "copilote"). Méthodes : Agile (Scrum/Kanban), DevSecOps. Projets : Migrations technologiques complexes, optimisation d'architectures distribuées, modernisation de systèmes critiques. Pourquoi nous rejoindre ? Stabilité & Impact : Des missions longues (2 ans+) pour construire des solutions durables. Process de recrutement fluide : 1 échange de pré-qualification interne, 1 seul entretien avec le partenaire final. Flexibilité : Rythme hybride équilibré (3 jours de présentiel). Positionnement : Un package aligné sur la réalité du marché et la valeur de votre expertise.
Mission freelance
Data Scientist - Bases de Données Graph & SQL
Sapiens Group
Publiée le
Data science
MySQL
Neo4j
1 an
Meudon, Île-de-France
Contexte Nous recherchons un profil jeune et motivé pour rejoindre notre équipe en tant que Data Scientist orienté gestion et modélisation de bases de données. Missions Concevoir, modéliser et administrer des bases de données, notamment orientées graphe Manipuler et exploiter des données via Neo4j et MySQL Participer à la structuration et à l’optimisation des flux de données Contribuer à des projets innovants nécessitant une forte compréhension des données Pourquoi nous rejoindre ? Environnement dynamique et innovant Projets concrets avec un impact réel Possibilité d’évolution et montée en compétences Si vous êtes passionné par la donnée et souhaitez vous investir dans un projet ambitieux, ce poste est fait pour vous.
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Consultant Data Analyst Marketing – Dataiku & Analytics
Deodis
Publiée le
Dataiku
1 an
600 €
Île-de-France, France
Ce poste consiste à piloter et analyser la performance marketing à l’échelle internationale en s’appuyant sur la donnée. Il implique d’accompagner les équipes marketing dans l’identification de leurs besoins, de concevoir et automatiser des solutions de reporting et d’analyse (tableaux de bord, extractions, KPIs), et de formuler des recommandations stratégiques basées sur les données. Le rôle inclut également la gestion et la structuration des données (data lineage, dictionnaire), le développement de flux data robustes et maintenables (notamment via Dataiku, SQL et Python), ainsi que la mise en place de modèles analytiques simples. En interaction constante avec des équipes métiers et IT dans plusieurs pays, il requiert une forte capacité de coordination transverse, un souci de la qualité des données et une communication efficace en environnement international.
Offre d'emploi
Concepteur éditique F/H
COEXYA
Publiée le
35k-45k €
France
Contexte La practice CMP - Content Management Paris est un centre de compétences du Groupe Coexya spécialisé sur le cycle de vie du document : - Flux entrants (dématérialisation courrier, factures...) - Gestion Electronique de Documents - Archivage électronique et papier, - Signature électronique, - Flux sortants : composition et envoi des documents, communications sortante multi-canal (papier, web, mail, SMS). Dans un contexte de croissance soutenue, nous renforçons nos équipes et recherchons plusieurs Développeurs / Concepteurs Editique F/H. Ce que l'on vous propose Au sein des centres de services de nos clients, vous interviendrez sur des projets variés autour du développement, de la conception et de la maintenance de solutions éditiques. Vous serez notamment amené(e) à : - Concevoir des documents via un ou plusieurs logiciels éditiques (Exstream, Quadient, etc...). - Conception des flux. - Réaliser et automatiser les tests unitaires. - Assurer la maintenance et les évolutions des documents existants. - Concevoir / intégrer les flux GED (entrants et sortants). - Contribuer à l'amélioration continue des pratiques de développement (agilité, outillage, livraison continue). Vous aurez un rôle clé dans : - La qualité des développements et des livrables, - La performance de la chaîne de génération documentaire, - L'interopérabilité entre les solutions transverses et les métiers.
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Chef de projet Agile Master Confirmé
KEONI CONSULTING
Publiée le
Azure Data Factory
Backlog management
Scrum
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Vous interviendrez au sein d'un projet récent, innovant en termes d'organisation et de technos. La mission s’inscrit au service du produit Editeur : - Plateforme d’api éditeur - Média autour de cette plateforme. La mission concerne l’un des deux pôles. Ce produit est en pleine transformation pour devenir un produit autonome utilisable par plusieurs clients. MISSIONS L'Agile master est un facilitateur de la vie d’une équipe de delivery et garant de son bon fonctionnement. Il est également facilitateur des démarches agiles (SCRUM/KANBAN/...), devops et des relations avec les autres équipes de l’écosystème. Il accompagne l'équipe dans un objectif d'autonomie et d'amélioration continue. Etre moteur sur la transformation agile et les pratiques au niveau de son éco système au sens très large et s'assure ainsi de la bonne cohérence de l'animation et des bonnes pratique à l'échelle de son domaine ou de sa factory ou d'un domaine de sa dimension systémique. Dans une approche lean, il promouvoit les méthodes et pratiques agiles dont il est le garant, et de faire en sorte que les équipes deviennent autonomes dans leur fonctionnement Agile. D’un point de vue méthode, il conseille aussi les acteurs pour trouver les pratiques les plus adaptées au contexte. Livrables • Mise en place des pratiques agiles. • Mener les activités préparatoires : Accompagner/coacher le Product Owner, Animer les séances d'évaluation des items du backlog et aider l'équipe à devenir autonome sur ce sujet • Mise en place des artefacts (Indicateurs, Burndown, HealthCheck, etc.) utiles, utilisés et utilisables au suivi de l’efficience de l’équipe. • Organisation des différentes cérémonies : Weekly, DSM, Rétrospective, Maturation, Démo. S'assurer que la documentation technique et fonctionnelle soit à jour et utile au partage de connaissance (intra équipe, inter équipe, nouveaux arrivants) S’assurer de l’autonomie de l’équipe pour un déploiement en continue (en recette et à venir en production) • Aider l'équipe à s'améliorer en continu : analyse des obstacles, éléments bloquants, interférences extérieures.
Mission freelance
Développeur Fullstack & MLOps (PHP Laravel / React / IA Integration)
HAYS France
Publiée le
Azure
Docker
Google Cloud Platform (GCP)
3 ans
100-400 €
Strasbourg, Grand Est
Votre mission Votre rôle est crucial : rendre l’IA réellement actionnable en production . Vous intervenez sur toute la chaîne applicative, du backend à l’interface utilisateur, en intégrant des modèles d’IA (LLM, multimodaux…) dans des produits concrets et utilisés. Vos responsabilités principales : Concevoir et développer des applications fullstack robustes et scalables Intégrer des modèles d’IA (LLM, vision, texte, multimodal) dans des workflows applicatifs réels Exposer et consommer des API IA de manière performante et sécurisée Travailler sur la mise en production des modèles et leur exploitation (MLOps) Collaborer avec les équipes Data, Produit et UX pour transformer les cas d’usage IA en fonctionnalités utilisateurs Garantir la qualité, la maintenabilité et la performance des applications
Mission freelance
Ingénieur Data / BI – SSIS & SQL Server
Deodis
Publiée le
SQL
1 an
500 €
Île-de-France, France
En tant qu’Ingénieur Data / BI, vous intervenez sur un projet transverse dédié à la valorisation et à la structuration de données éditoriales issues de contenus audiovisuels (journaux télévisés, matinales, archives), afin de les rendre exploitables via des outils de reporting décisionnel. Vous êtes responsable de la maintenance et de l’évolution des flux de données (packages SSIS), de l’adaptation des requêtes SQL dans un contexte de transformation des sources, ainsi que de la modélisation des données (dimensions, faits, historisation). Vous garantissez la qualité, la fiabilité et la performance des traitements dans un environnement SQL Server, tout en documentant vos զարգements et en proposant des optimisations pour répondre à des contraintes de délais opérationnels. Vous travaillez en étroite collaboration avec les équipes data et métiers dans une logique d’amélioration continue.
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Vue CV
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
2569 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois