L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 841 résultats.
Mission freelance
Data Scientist - GenAI
Publiée le
Docker
FastAPI
Gitflow
6 mois
Paris, France
Télétravail partiel
Métiers et Fonctions : Data Management Data Scientist Spécialités technologiques : Big Data genAI Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : Dockergenai, Gitlab, FastAPI, Python, Gitflow, genai Méthodes / Normes : Agile Langues : Anglais Secteurs d'activités : Banque Description de la prestation : Dans le cadre d'une mission pour un client du secteur des assurances, recherche d'un Data Scientist pour soutenir une stratégie IA et participer à un projet clé visant à analyser les formulations et tendances. Objectifs principaux : Réviser et numériser le portefeuille de traités (contrats, polices), en assurant une gestion correcte des documents liés. Mettre en œuvre des jumeaux numériques selon le modèle de données défini, en garantissant cohérence et intégration parfaite des données. Mettre en place des contrôles qualité stricts pour l'assurance de la fiabilité des données saisies. Élaborer une documentation complète pour faciliter l'intégration des données dans les modèles analytiques. Livrables : Code et documentation conformes à la définition du travail terminé, couvrant un large scope de contrat.
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Mission freelance
Mission Freelance – Data Analyst (Confirmé)
Publiée le
Microsoft Power BI
1 an
400-530 €
Île-de-France, France
Télétravail partiel
Vos missions Participer à la construction et exploitation du socle de données (Datalake GCP / BigQuery). Réaliser des analyses de connaissance utilisateurs : profils, appétences, parcours, fidélisation, impact des fonctionnalités et de la pression publicitaire. Concevoir, mettre à jour et améliorer des dashboards Power BI pour le suivi des objectifs et indicateurs. Contribuer à la valorisation des données au service des équipes internes (éditorial, produit, marketing). Compétences techniques Maîtrise des requêtes SQL avancées . Expérience sur un environnement Cloud (idéalement GCP / BigQuery ). Solide maîtrise de Power BI . Bonne connaissance des bases de données et outils analytics (Piano Analytics, Google Analytics…). Appétence pour les contenus audiovisuels et la data storytelling .
Offre d'emploi
Test project Manager Senior -Bordeaux(H/F)
Publiée le
JMeter
Linux
Open Source
1 an
Dijon, Bourgogne-Franche-Comté
🔍 Contexte de la mission Dans le cadre de l’amélioration continue de la performance de ses solutions logicielles, un acteur majeur du secteur de la santé recherche un expert en tests de charge pour définir et déployer une démarche de performance applicative transverse auprès des équipes R&D. L’objectif : garantir la scalabilité , la stabilité et la non-régression des applications sur différentes configurations techniques. ⚙️ Objectif de la mission Mettre en œuvre une démarche complète de tirs de charge , bâtie sur des outils open source , et accompagner les équipes techniques dans sa mise en place et son suivi. 🧩 Missions principales Définir la stratégie de tirs de charge et sélectionner les outils open source adaptés (JMeter, Gatling, Locust, etc.). Formaliser la méthodologie de tests de charge et les bonnes pratiques associées. Accompagner les équipes R&D dans le déploiement opérationnel de cette démarche. Former les équipes aux outils et méthodes de performance. Suivre la mise en œuvre et proposer des actions d’amélioration continue. 📦 Livrables attendus Démarche de tirs de charge formalisée. Plan de déploiement et documentation technique. Suivi du déploiement et indicateurs de performance. 💡 Compétences techniques requises Maîtrise des outils open source de tests de charge (JMeter, Gatling, Locust, etc.) – Confirmé, impératif. Solide expérience sur Linux – Confirmé, impératif. Expérience prouvée dans la mise en place d’une stratégie de performance et de tests de charge . Capacité à accompagner et former les équipes techniques.
Mission freelance
Référent data gouvernance
Publiée le
Gouvernance
Modélisation
3 ans
100-420 €
Lille, Hauts-de-France
Télétravail partiel
Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en veillant au respect des règles de gouvernance définies au niveau groupe. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées selon les standards établis. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques de gouvernance. Travailler en autonomie sur le poste, tout en bénéficiant d’un appui ponctuel d’une data ingénieure en interne. Profil recherché Nous recherchons un profil maîtrisant les enjeux de data management , ayant idéalement effectué une reconversion vers la gouvernance de données . Un véritable gourou de la gouvernance , capable de structurer, modéliser et faire respecter les bonnes pratiques au sein des équipes. Compétences attendues Expertise confirmée en gouvernance de données et modélisation de données (impératif). Connaissance de GCP et Power BI appréciée. Expérience sur Collibra serait un plus. Maîtrise du français courant (impératif) et de l’ anglais professionnel (secondaire).
Offre d'emploi
Data Analyse H/F
Publiée le
Microsoft Power BI
12 mois
50k-60k €
500-550 €
Île-de-France, France
La prestation consistera à participer à : - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Offre d'emploi
Data Scientist/IA (H/F)
Publiée le
35k-40k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Le poste Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : - Collecter et préparer des données - Nettoyer, transformer et structurer les données pour les rendre exploitables - Gérer la qualité des données - Construire des modèles prédictifs et des algorythmes de machine learning - Veiller à l'amélioration continue des performances des modèles - Suivre les avancées en data science, machine learning et intelligence artificielle Stack technique: -Machine Learning -Python -SQL -Pandas / Numpy -Flask -Tableau/ Power BI
Offre d'emploi
Concepteur / Développeur Full Stack Java – Sophia Antipolis (H/F)
Publiée le
Java
Spring Data
Spring Security
3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🔍 Contexte de la mission Dans le cadre d’un projet à fort enjeu opérationnel au sein du secteur de la santé numérique européenne , la mission consiste à concevoir, développer et opérer une plateforme de services et d’intermédiation à l’échelle européenne. Ce projet stratégique s’inscrit dans un contexte international, nécessitant une maîtrise technique solide et une capacité à collaborer dans un environnement multiculturel . ⚙️ Objectif global Participer à la construction, au développement et à l’exploitation d’une plateforme innovante de services numériques dans le domaine de la santé, en garantissant la qualité technique et la conformité aux standards européens. 🧩 Missions principales Concevoir l’architecture technique et logicielle de la plateforme. Définir et mettre en place l’environnement de développement (outils, méthodes, CI/CD). Choisir la stack technique la plus adaptée aux besoins du projet. Réaliser la conception technico-fonctionnelle des modules applicatifs. Développer et intégrer les différentes briques logicielles (Java / Spring Boot / bases de données). Accompagner les développeurs full stack dans la mise en œuvre des bonnes pratiques. Participer à la rédaction des spécifications fonctionnelles et techniques , dossiers d’architecture et de migration. 📦 Livrables attendus Dossier de spécifications fonctionnelles et techniques. Dossier d’architecture technique et logicielle. Dossier de migration et de bascule opérationnelle. 💡 Compétences techniques requises Java – Niveau Expert (impératif). Spring Boot / Spring Data / Spring Security – Confirmé (impératif). Architecture logicielle – Confirmé (impératif). Base de données relationnelles (SQL) – Confirmé (impératif). Bon niveau en anglais professionnel et français courant .
Mission freelance
Tech Lead Data
Publiée le
Apache Spark
Azure
Databricks
14 mois
500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous sommes un leader mondial dans la fabrication de matériaux composites et de solutions innovantes . Depuis plus d’un siècle, nous repoussons les limites de la science des matériaux pour contribuer au progrès humain et à un monde plus durable . Grâce à notre expertise technologique dans les composites polymères , nous innovons continuellement pour produire des solutions de haute qualité destinées à des applications critiques dans des secteurs exigeants tels que la mobilité, la construction, l’aéronautique, les énergies bas carbone ou la santé . L’attention que nous portons à nos produits et notre connaissance fine des usages de nos clients nous permet d’offrir des expériences exceptionnelles , qu’il s’agisse de solutions connectées et intelligentes pour des flottes professionnelles , ou de services uniques pour nos consommateurs finaux .
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Offre d'emploi
Ingénieur DevOps GCP – Île de France (H/F)
Publiée le
Ansible
CI/CD
DevOps
1 an
Île-de-France, France
🔍 Contexte de la mission Dans le cadre de l’ouverture vers le Cloud et de la modernisation de ses infrastructures, une équipe produit « Digital Backbone » recherche un Ingénieur DevOps confirmé afin de contribuer au design, à la construction et aux opérations de la plateforme Cloud . L’objectif est d’assurer la mise en place de services GCP sécurisés et performants, tout en facilitant les échanges de données entre les applications internes et les environnements cloud publics. ⚙️ Objectifs et principales missions Participer à la mise en place des services Cloud GCP pour les environnements intranet et usines. Automatiser les déploiements via Ansible et Terraform . Mettre en œuvre une chaîne CI/CD complète (développement → production). Assurer le monitoring et la supervision des services déployés. Gérer des environnements Docker et garantir leur sécurité et performance (FinOps) . Fournir un support de niveau 3 (L3) et accompagner le RUN de la plateforme. 📦 Livrables attendus Plateforme Cloud GCP opérationnelle et documentée. Documentation technique et tableaux de bord de supervision. Support et accompagnement des équipes projets. Application des principes de Site Reliability Engineering (SRE) . 💡 Compétences techniques requises Compétences impératives : Cloud public GCP et services managés. Automatisation via Ansible et Terraform . CI/CD : GitLab CI, Jenkins (GitLab CI fortement apprécié). Linux , Docker , Git . Expérience avec Kubernetes et les architectures microservices. Notions de monitoring/performance (Prometheus apprécié). Compétences optionnelles : Développement Python ou Java . Expertise Ops et CI/CD en environnement RUN. Connaissance des bonnes pratiques SLO / SLI / SLA . 📍 Secteur : Industrie | Localisation : Ile de France (TT : 3j/semaines) 🕓 Mission longue durée – Démarrage ASAP
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Offre d'emploi
DATA SCIENTIST F/H | NANTES (44)
Publiée le
Data science
Machine Learning
Python
3 ans
10k-43k €
100-320 €
Nantes, Pays de la Loire
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client au sein d'une équipe de spécialistes et interviendrez sur des sujets variés (risques, fraudes, commerce, etc.). Dans le cadre de votre mission, vous serez en charge de : Analyser les données Créer et utiliser des modèles mathématiques et de Machine Learning Environnement Technique : Python, R, ML Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Offre d'emploi
Chef de projet data
Publiée le
Data analysis
Gestion de projet
40k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Organiser deux programmes data de la tribe IT Data PF: - Programme de transformation des solutions data analytics (stream Technologies) - Programme de définition du plan stratégique data 2027-2030 Ces deux programmes se réalisent dans un cadre méthologique Agile et le poste recherché est un Opus Owner qui va travailler avec les Product Owner/Squad et Centre d'expertises en transversal afin de structurer et animer la backlog de ces deux programmes. - Programme de transformation des solutions data analytics (stream Technologies) - 90% du temps En support du stream leader technologie: cadrer le besoin autour des plateformes data, traduire en exigence produit, budgétiser, planifier, préparer l'exécution du programme, des intéractions entre squads plateformes et produit - Programme de définition du plan stratégique data 2027-2030 - 10% du temps Structuration du stream, animation d'une communauté internationale, formalisation stratégie La mission concerne le cadrage et pourra s'étendre à l'exécution des programmes. Le poste est rattaché à l'IT Tribe Lead data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Job Consultant Service now Suisse. 200 euros par jour!
- Expatriation en Suisse
- (Oggi)➛ Codice sconto 𝒯-ℰ-ℳ-U [ACW867474]: - 200 € di sconto per i clienti già iscritti
- (Top)➛ Codice sconto 𝒯-ℰ-ℳ-U [ACW867474] ➛ 30% + 100 € di sconto per i nuovi clienti
- codice sconto 𝒯-ℰ-ℳ-U [ACW867474] 30% sconto nuovi clienti
1841 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois