L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 185 résultats.
Mission freelance
Data Engineer Senior - Data Warehouse
Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Offre de stage
Stage Business Developer
CBX Conseil ( CBX Group )
Publiée le
CRM
3 mois
Massy, Île-de-France
Nous recrutons un(e) Stagiaire Business Developer pour accompagner le développement de nos activités et le suivi de nos missions clients 🚀 📝 Type : Stage 📍 Localisation : Paris 🏠 Télétravail : Partiel possible 🎯 Profil recherché : Étudiant(e) en école de commerce, management ou équivalent (Bac+3 à Bac+5), dynamique, structuré(e) et doté(e) d’un excellent relationnel. 💼 Missions principales : • Recueillir et analyser les besoins clients (RDV, qualification, cadrage) • Rédiger des propositions commerciales et offres de services • Participer au suivi des processus de recrutement (qualification, organisation des entretiens, coordination candidats/clients) • Assurer le suivi des missions en cours avec les clients • Mettre à jour les outils de suivi (CRM, reporting, tableaux de bord)
Mission freelance
Lead FP&A entreprise SAAS
Mon Consultant Indépendant
Publiée le
SaaS
6 mois
590-620 €
Paris, France
Nous recherchons un(e) Lead FP&A disposant d’au moins 10 ans d’expérience , avec un passage significatif et confirmé au sein d’une entreprise de logiciels / SaaS . Le profil interviendra sur le pilotage de la performance financière, la structuration des processus budgétaires, le forecasting et l’analyse stratégique. Une excellente maîtrise des indicateurs clés des entreprises SaaS (ARR, MRR, churn, CAC, LTV, etc.) est indispensable afin d’accompagner la prise de décision et la croissance. Le poste requiert vision analytique, leadership et forte capacité d’interaction avec les équipes opérationnelles et dirigeantes.
Mission freelance
AI Product Owner
Codezys
Publiée le
Azure
Cloud
Data science
12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
Mission freelance
Data Analytics Manager
Axysse
Publiée le
Analyse financière
Microsoft Power BI
4 mois
400-550 €
Île-de-France, France
📍 Secteur Luxe 🌍 Environnement international | Forte exposition stratégique Un acteur majeur du secteur du luxe , en pleine phase d’expansion internationale dans l’univers du travel premium (hospitality, expériences exclusives, mobilité haut de gamme), recherche son/sa futur(e) Data Analytics Manager . Dans un contexte de lancement d’offres et de structuration d’activités à forte valeur ajoutée, vous interviendrez au cœur des enjeux de performance économique et d’optimisation stratégique. 🎯 Votre mission Rattaché(e) à une direction stratégique, vous serez responsable de la maximisation des revenus via une approche data-driven combinant pricing dynamique, gestion d’inventaire et pilotage distribution. 🔹 Revenue & Distribution Pilotage des données distribution dans les systèmes centraux (CRS / PMS / RMS) Lancement des nouvelles saisons commerciales Mise en place et optimisation de stratégies de pricing dynamique Allocation stratégique de l’inventaire selon les prévisions de demande Analyse benchmarking & performance marché Collaboration étroite avec Sales & Reservations 🔹 Data Analytics & Performance Construction et optimisation de dashboards interactifs (Power BI / Tableau) Production de reportings exécutifs à forte valeur stratégique Automatisation des analyses de performance Analyse approfondie des indicateurs clés (revenu, taux d’occupation, yield…) 🔹 Intelligence Marché Analyse concurrentielle avancée Intégration de nouvelles sources de données Identification d’opportunités et d’axes d’amélioration business 💎 Pourquoi rejoindre ce projet ? Environnement luxe en forte expansion Projet structurant avec impact direct sur la rentabilité Forte exposition stratégique Culture d’excellence et d’innovation Dimension internationale
Mission freelance
Assistance Informatique ( ITIL/Servicenow)
Codezys
Publiée le
CRM
ITIL
ServiceNow
12 mois
Le Mans, Pays de la Loire
Contexte de la mission Modalités : Localisation : Le Mans Budget prestataire : 440 euros Seniorité requise : Environ 5 ans d’expérience Objectifs et livrables Gestionnaire des formations pour les techniciens Front Office : Animation de sessions de formation pour des profils variés, avec la responsabilité de concevoir, dispenser, et maintenir les supports de formation (tels que le livret de formation, les questionnaires d’évaluation, et la matrice de compétences). Sensibilisation à la qualité du service client : Formation des techniciens sur la prise en charge des incidents et des demandes, afin d’instaurer une culture orientée client. Maintien opérationnel de la base de connaissances : Mise à jour et gestion des modèles de saisie dans l’outil ServiceNow, accessibles aux techniciens. Amélioration de la qualité de service : Évaluation et challenge sur deux axes principaux : La gestion des sollicitations utilisateurs : accueil, posture, utilisation des outils, consultation des bases de connaissances, diagnostic (incluant des méthodes comme la double écoute). La qualité des informations dans les tickets : organisation d’échanges en double écoute, sélection pertinente d’informations, et partage avec les groupes support pour identifier les difficultés et proposer des axes d’amélioration. Support opérationnel : Être le point de contact pour les techniciens Front Office, accompagnant dans la prise d’appels afin d’accroître le taux de résolution immédiate. Analyser les incidents unitaires pour proposer ou ajuster les processus, connaissances, et directives. Gestion des incidents majeurs : Participer à leur gestion en alertant la tour de contrôle, en activant un message ACD, et en transmettant les consignes aux techniciens concernés. Renfort en cas de besoin : Prendre en charge les appels pour soutenir l’équipe lors des pics d’activité ou des absences imprévues, tout en consolidant votre expertise technique sur le périmètre défini.
Mission freelance
PRODUCT OWNER DATA SUPPLY
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch
OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch
3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
VISIAN
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Offre d'emploi
Data Analyst / Product Owner
Mon Consultant Indépendant
Publiée le
Data analysis
120k-130k €
Nyon, Vaud, Suisse
Tâches : -Data Analyst avec rôle de Product Owner dans une équipe agile de 5 personnes en charge des données de la prévoyance professionelle et prestations dans un environnement SAFe -Elaborer, faire évoluer, documenter et maintenir les DataMarts ainsi qu'exploiter les rapports du DWH -Mettre en place l’évolution technologique du DWH en accompagnant la transition vers le Cloud et élaborez de nouvelles approches pour le traitement et l’exploitation des données -En tant que Product Owner, gérer et prioriser le backlog de l'équipe et participer aux différentes cérémonies Experience : -Expérience professionelle confirmée dans le domaine de la Data
Mission freelance
Développeur SalesForce Expert - Bordeaux
Atlas Connect
Publiée le
Apex
API
Salesforce
12 mois
530-600 €
Bordeaux, Nouvelle-Aquitaine
Missions principales Au sein de l’équipe, vous aurez pour responsabilités : Compréhension des besoins métiers et techniques Réflexion et conception d’architectures solutions Salesforce Animation de workshops techniques (cadrage & conception) Rédaction des spécifications techniques détaillées Chiffrage des solutions Développement Apex & configurations avancées Salesforce Choix techniques et force de proposition Garantie de la qualité de conception et réalisation Référent technique Salesforce au sein de l’équipe Accompagnement et montée en compétence des collaborateurs Mise en place et diffusion des bonnes pratiques Veille technologique sur les évolutions Salesforce 🛠️ Compétences techniques requises🔹 Expertise obligatoire Salesforce (Expert) Apex Lightning Web Components (LWC) Flows Modélisation de données Intégrations API Sécurité & Sharing Model Architecture Salesforce Bonnes pratiques de développement & qualité de code 🔹 Méthodologie Agile (Confirmé) Expérience en équipe produit 🔹 Outils JIRA (Confirmé) Confluence (Confirmé)
Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)
EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python
3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
Mission freelance
Data engineer H/F
Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks
2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Offre d'emploi
Architecte Data IA
UTALENT
Publiée le
Architecture
IA
12 mois
La Défense, Île-de-France
Concevoir des architectures data et IA en réponse à des besoins d’analyse et de traitement exprimés par les métiers. Définir les architectures cibles, standards, frameworks et principes de modélisation des données. Structurer la gestion des métadonnées, des référentiels et des flux de données. Contribuer à la définition d’architectures de référence pour les plateformes data et analytiques. Identifier les sources de données de référence et encadrer les transformations et dataflows. Analyser l’existant, documenter les solutions et proposer des axes d’amélioration continue (performance, capacité, coûts, sécurité). Intégrer les enjeux de résilience, d’exploitabilité et de sécurité dès la conception des solutions. Accompagner les équipes de développement dans l’application des bonnes pratiques de conception et de codage. Travailler en coordination avec les équipes métiers, sécurité, opérations et support. Assurer une veille technologique et proposer des évolutions visant à améliorer l’efficacité du SI.
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
Chef de programme Data / Banque - Migration Datalake
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
Chef·fe de Programme Data - Migration Datalake 🚀 Lieu : Paris 📍 * Contrat : Freelance/Assistance technique 🤝 * Démarrage : Jan 2026 ⏱️ * Durée : jusqu'au 31/12/2026 (~218 j) 🗓️ Mission 🎯 Piloter la migration d'un datalake local vers un datalake groupe dans un environnement international (organisation globale basée aux 🇳🇱). Assurer la gouvernance et le pilotage : planning, actions log, risk log, roadmap, tableaux de bord, reporting direction 📊. Garantir l'intégrité des données et la continuité des reportings réglementaires (Finance, Paiements, Transactions, KYC) ✅. Co‑gestion du programme avec un prestataire offshore et un Program Manager au niveau groupe 🤝. Animation des instances (comités projet/direction), coordination équipes métiers & IT, levée d'obstacles, suivi des livrables 🧭. Environnement & périmètre 🔍 Migration lake‑to‑lake avec forte dimension data governance et qualité de données. Publics variés : technique, métier et exécutif (adaptation du discours, synthèse et pédagogie) 🗣️. Cadence structurée : plans d'itération, revues de risques, points d'alignement multi‑stakeholders 📑. Profil recherché 👤 10-15 ans en program management / projets data complexes (banque/assurance idéalement) 🏦. Solides bases en data modeling et architecture data 🧠. Expérience avérée des livrables de gouvernance (plans, dashboards, rapports de direction) 🧾. Outils : ETL (DataStage / pipelines) & Power BI 🛠️. Leadership d'influence, excellente communication (tech ↔ business) et capacité à aligner des équipes pluridisciplinaires 🎛️. Français courant 🇫🇷 & anglais professionnel 🇬🇧 (impératif). Modalités 🧩 🏢 * Pas de déplacements ✈️ * Pas d'astreintes 🌙. Périmètre France avec interface groupe : coordination locale/globale 🔄.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
- Barème kilométrique - voiture de prêt
- Facturation électronique 06 : Une FE n’est pas un PDF par mail !!!
3185 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois