L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 842 résultats.
Offre d'emploi
Tech Lead Data Engineer H/F
Publiée le
50k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 7kbz633w88
Offre d'emploi
Développeur Python (H/F)
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
Architecte Data
Publiée le
Ivalua
Javascript
Microsoft Excel
1 an
Île-de-France, France
Offre d’emploi : Data Architect – Solutions de Gestion des Risques Supply Chain Contexte et enjeux Vous rejoignez un projet stratégique visant à anticiper et à maîtriser les risques liés aux fournisseurs dans un environnement industriel à haute criticité. La plateforme sur laquelle vous interviendrez permet de gérer de façon proactive les risques fournisseurs pour un certain nombre de produits impactant la supply chain. Elle centralise les données issues de multiples systèmes, permet de simuler différents scénarios et d'en évaluer les impacts, et recommander des actions de remédiation. Les données intégrées dans l’application sont issues de différentes sources (ERPs, Procurement BI, e-ACQ, fichiers externes). Le traitement et la qualité des données sont essentiels car les chargements nécessitent un travail important de préparation avec des enjeux de performance, de fiabilité et de conformité réglementaire. Vos missions 1. Intégration et gouvernance des données Identifier les sources de données pertinentes (ERP, outils achats, fichiers externes, données marché). Définir les flux d’extraction, les règles de transformation et les formats cibles. Préparer les données (filtres, mappings, indicateurs, scripts d’automatisation). Garantir leur cohérence fonctionnelle. Mettre en place des processus d’automatisation pour fiabiliser et accélérer les mises à jour récurrentes. 2. Modélisation et qualité des données Vérifier l’adéquation des modèles de données proposés par l’éditeur et recommander des ajustements si nécessaire. Diagnostiquer les problèmes de qualité, analyser les écarts et proposer des solutions d’amélioration technique ou process. Contrôler la cohérence des indicateurs clés et des résultats de simulation. Maintenir un jeu de données de référence pour les tests et les validations. 3. Pilotage technique et support plateforme Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures sources et des données métier. Contribuer au déploiement des nouvelles versions applicatives et aux montées de version techniques. Participer aux tests des releases applicatives 4. Documentation et amélioration continue Documenter l’ensemble des traitements sur les données Participer aux phases de test, de non-régression et à l’analyse des incidents. Proposer des évolutions pour renforcer la robustesse et la scalabilité de la plateforme.
Offre d'emploi
Product Owner data
Publiée le
Azure Data Factory
Cybersécurité
Data Lake
6 mois
Courbevoie, Île-de-France
Télétravail partiel
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Offre d'emploi
Business Analyst Data (F/H)
Publiée le
Big Data
Business Analyst
12 mois
45k-55k €
400-500 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst Data / BI . Vous interviendrez en proximité avec les équipes métier pour les accompagner dans la définition des besoins , la conception de solutions et le suivi de la mise en œuvre , dans un environnement riche et complexe. Vos principales activités: Dans le cadre de votre mission, vous serez amené(e) à : Analyser l’existant : évaluer les deux entrepôts de données à décommissionner en termes d’audience, d’utilisation et de fonctionnalités. Réaliser une gap analysis en comparant les fonctionnalités existantes et celles de l’outil cible, puis proposer des recommandations de mise en œuvre. Alimenter le backlog en rédigeant des user stories complètes et détaillées, incluant l’ensemble des règles fonctionnelles. Accompagner les équipes de développement , en précisant ou en faisant préciser les points nécessitant des clarifications. Définir les critères d’acceptation et tester les fonctionnalités développées pour garantir leur conformité. Piloter la phase de change management afin de faciliter l’adoption de la nouvelle solution par les métiers.
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Mission freelance
Ingénieur Data Cloud (H/F)
Publiée le
BigQuery
12 mois
500-550 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur bancaire, recherche un.e Data Engineer Cloud pour renforcer son pôle Data dans le cadre d’un vaste programme de modernisation de sa plateforme analytique et de migration vers le cloud. Le poste s’adresse à un profil confirmé, capable d’intervenir sur la conception et l’industrialisation de pipelines de données dans un environnement GCP / BigQuery, avec une approche orientée Data Engineering plutôt que développement applicatif. Vous rejoindrez une équipe d’experts data au sein d’un environnement technique moderne, reconnu pour son cadre de travail de qualité et sa culture d’innovation. Vos missions principales: Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud GCP (BigQuery, Dataflow, Pub/Sub, etc.). Participer à la migration des flux et traitements On-Premise vers le Cloud. Optimiser les performances, la scalabilité et la qualité des données sur la plateforme. Contribuer à la mise en œuvre des bonnes pratiques d’ingénierie data : CI/CD, tests, supervision, gouvernance. Collaborer avec les équipes DataOps, BI et Architecture pour garantir la cohérence et la fiabilité des flux. Documenter les architectures, assurer la traçabilité et la qualité des livrables.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Offre d'emploi
Responsable plateforme Data/IA (Monaco)
Publiée le
Ansible
AWS Cloud
Docker
3 ans
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Le contexte: Dans le cadre d’un programme de transformation numérique d’envergure, nous recherchons un profil expérimenté pour assurer le pilotage opérationnel et technique de plateforme Data & IA . Cette plateforme hybride, au cœur de la stratégie de données et d’intelligence artificielle, supporte de nombreux cas d’usage métiers et entre dans une phase d’ industrialisation et de montée en puissance . Le futur responsable occupera un rôle clé dans le maintien en conditions opérationnelles, la sécurisation des environnements et l’accompagnement des évolutions SI à venir. 📍 Poste basé à Monaco , résidence dans le 06 obligatoire (pas de full remote, 2 jours de télétravail/semaine). 🛠️ Les missions: Pilotage opérationnel et technique du socle Data & IA (IaaS / PaaS / CaaS) Gestion du MCO, des incidents, changements, configurations et assets techniques Contribution active à la cybersécurité : gestion des remédiations, participation aux audits et revues de sécurité Coordination des acteurs techniques et animation des comités Rédaction de consultations et d’appels d’offres sur les périmètres techniques Suivi du plan d’amélioration continue et proposition d’évolutions sur le socle Contribution à l’urbanisation du SI et à la capitalisation des design-patterns Mise en place d’outils d’automatisation et de reporting avancé (Terraform, Ansible, GitLab CI/CD) Participation à la veille technologique (Cloud, Cybersécurité, Data & IA) ✅ Les informations clés: 📍 Localisation : Monaco 🗓️ Démarrage : Janvier 2026 🖥️ 2 jours de télétravail possible
Offre d'emploi
Architecte Senior CloudOps & Data H/F
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : f3ewm09py6
Mission freelance
Mission Freelance – Data Steward / Chef de projet Data Gouvernance
Publiée le
Market data
1 an
400-670 €
Île-de-France, France
Télétravail partiel
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric
Publiée le
Microsoft Fabric
6 mois
450-560 €
Paris, France
Télétravail partiel
Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Architecte Solutions Data
Publiée le
Big Data
CI/CD
SAS
2 ans
Île-de-France, France
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Offre d'emploi
Chef de projet DATA (H/F)
Publiée le
50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- (Oggi)➛ Codice sconto 𝒯-ℰ-ℳ-U [ACW867474]: - 200 € di sconto per i clienti già iscritti
- (Top)➛ Codice sconto 𝒯-ℰ-ℳ-U [ACW867474] ➛ 30% + 100 € di sconto per i nuovi clienti
- codice sconto 𝒯-ℰ-ℳ-U [ACW867474] 30% sconto nuovi clienti
- 𝒯-ℰ-ℳ-U Gutscheincode influencer [ACW867474]➛ CHF 100 Rabatt für Bestandskunden
- 𝒯-ℰ-ℳ-U Rabattncode Erlebnisse➛ [ACW867474]: 200€ Rabatt für Neukunden
- ❰Neu❱➛ 𝒯-ℰ-ℳ-U Gutscheincode [ACW867474]: 25€ + 30% Rabatt für Bestandskunden
1842 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois