L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 854 résultats.
Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)
Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake
1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
PROPULSE IT
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
ANALYSTE DE TEST ET VALIDATION - Databricks - Azure Confirmé F/H
SMARTPOINT
Publiée le
Azure
Databricks
12 mois
400 €
Châtillon, Île-de-France
Description détaillée Nous recherchons un Développeur BackEnd AEM pour rejoindre notre équipe. Vous serez chargé de la conception, du développement et de l'optimisation de solutions de gestion de contenu via Adobe Experience Manager (AEM) Cloud pour la Tribe Attract Ecom. Vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions digitales innovantes. Vous collaborerez étroitement avec les équipes de développement frontend, produits, UX/UI, etc. pour créer des expériences utilisateurs de haute qualité, optimisées pour différents appareils et plateformes. Vos responsabilités :- Concevoir et développer des composants et des services back-end sur la plateforme AEM.- Intégrer AEM avec d'autres systèmes d'information via des API REST et/ou autres- Optimiser les performances des systèmes existants et veiller à leur évolutivité.- Participer à l’architecture et aux discussions techniques pour orienter les choix de développement.- Travailler en collaboration avec des équipes multidisciplinaires (frontend, UX, Design, etc).- Maintenir et améliorer les pipelines CI/CD pour l'automatisation des déploiements. - Garantir la sécurité et la conformité des systèmes développés selon les meilleures pratiques. - Fournir une documentation claire et détaillée pour les projets et les nouvelles fonctionnalités. Compétences requises pour cette mission : - Minimum de 7 ans en développement backend, avec une expérience significative sur AEM. (un plus si expérience sur la plateforme AEM Cloud & DAM). - Maîtrise de Java et des frameworks associés (Spring, OSGi). - Bonne compréhension des architectures RESTful et SOAP. - Connaissance des pratiques DevOps (CI/CD, Jenkins, etc). - Connaissance des outils de gestion de version tels que GitLab. - Compréhension des principes de sécurité applicative et de gestion des accès. - Connaissance des fragments de contenu et des fragments d'expérience AEM. - Expérience dans la configuration du Dispatcher AEM pour l'optimisation des performances. - Capacité à travailler en équipe et à collaborer avec des départements transverses. - Excellentes compétences en résolution de problèmes et en communication. - Proactivité et force de proposition pour améliorer les performances des applications. - Une bonne capacité d'adaptation dans un environnement en évolution rapide. Formation : - Diplôme en informatique, en ingénierie logicielle, ou dans un domaine connexe, ou expérience professionnelle équivalente.
Offre d'emploi
Administrateur Middleware ETL – Expert Informatica & Azure AZ‑104
Lùkla
Publiée le
Azure
IBM DataStage
Informatica PowerCenter
4 ans
40k-65k €
400-550 €
Île-de-France, France
Contexte de la mission: Au sein de la DSI d'un grand groupe bancaire international, vous intervenez comme expert Middleware ETL pour assurer l'administration, l'évolution et la sécurisation des plateformes Informatica PowerCenter / IDMC et IBM DataStage. La mission s'inscrit dans un contexte de modernisation des infrastructures ETL, incluant une migration vers Informatica 10.5, un renforcement des environnements Azure (AZ104) et une industrialisation des processus d'exploitation. Vous rejoignez l'équipe Middleware & Data Engineering, en charge du maintien en conditions opérationnelles, de la performance et de l'architecture des plateformes ETL critiques pour les métiers bancaires. Objectifs de la mission: Administrer et maintenir les plateformes Informatica PowerCenter / IDMC et IBM DataStage. Assurer l'installation, la configuration, le patching et la migration vers Informatica 10.5. Gérer les environnements serveurs sous Azure (AZ104) et RHEL / Linux. Déboguer les incidents complexes liés à l'administration et au développement ETL. Fournir des recommandations et solutions architecturales pour les plateformes ETL. Assurer la sauvegarde, la restauration et la sécurisation des domaines Informatica & DataStage. Contribuer à la gestion des changements, incidents et opérations via l'outil ITSM. Gérer des problématiques environnementales complexes dans un contexte bancaire exigeant.
Mission freelance
Directeur de Programme Cloud - Paris
Net technologie
Publiée le
AWS Cloud
Azure
Cloud
4 mois
Paris, France
Nous recherchons un(e) Directeur de Programme pour piloter des projets Cloud complexes, en assurant la gestion opérationnelle, contractuelle et financière des engagements clients. 🎯 Objectif : garantir la réussite des projets, la satisfaction client et le respect des engagements dans un environnement multi-équipes. 🚀 Missions Pilotage de projets Cloud complexes (delivery, budget, risques, qualité) Participation aux phases d’avant-vente & cadrage des besoins clients Gestion contractuelle : conformité, avenants, suivi des engagements Coordination des équipes techniques & opérationnelles Gestion de la relation client & des escalades Pilotage financier : forecast, facturation, cash-flow, rentabilité Contribution à la stratégie commerciale et au développement des opportunités
Offre d'emploi
Data Engineer, Azure Databrick (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Offre d'emploi
Builder Azure / DevSecOps Data
VISIAN
Publiée le
Azure
Azure DevOps
CI/CD
1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Offre d'emploi
Développeur iPaaS Azure sénior (H/F)
1G-LINK CONSULTING
Publiée le
Azure
1 an
Neuilly-sur-Seine, Île-de-France
Secteur Luxe. Nous recherchons un(e) Développeur iPaaS Azure sénior pour accompagner notre client sur ses projets. L’objectif : interconnecter des systèmes hétérogènes et fiabiliser les échanges de données via Microsoft Azure Vos missions : Développement et intégration Développement et intégration Développer des flux d'intégration avec Azure Logic Apps ou Azure Function Créer des Azure Functions en C#/.NET pour des traitements spécifiques Implémenter des pipelines de données avec Azure Data Factory (ADF) Développer en .NET/C# pour les composants personnalisés Participer à la mise en place de l'infrastructure Azure (Terraform) Contribuer aux pipelines DevOps pour le déploiement automatisé Collaborer sur la configuration des environnements Implémenter le monitoring avec Azure Monitor et Application Insights Utiliser ELK Stack pour l'analyse des logs Assurer le support niveau L3 des solutions déployées avec documentation associée Encadrement technique des développeurs junior Interface avec les équipes métier et architectes Formation et transfert de compétences INFORMATIONS SUPPLEMENTAIRE : Localisation : Neuilly-sur-Seine (92) – hybride Langues : Français courant, anglais technique
Mission freelance
QA Data
Cherry Pick
Publiée le
Azure
Databricks
12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Mission freelance
Sr. Azure Cloud Engineer
Phaidon London- Glocomms
Publiée le
Azure
Azure DevOps
microsoft
12 mois
600-800 €
Paris, France
Job title: Sr. Azure Cloud Engineer Location: Paris, France Contract: 12 month (renewable) Overview Nous sommes partenaires d’une organisation de premier plan dans le secteur des Services Financiers qui souhaite engager un Senior Azure Cloud Engineer sur une base contractuelle. Ce rôle jouera un rôle clé dans la conception et l’exploitation d’environnements cloud à l’échelle de l’entreprise, tout en soutenant des initiatives continues de transformation des plateformes. Mission La mission vise à améliorer les pratiques d’ingénierie cloud, avec un accent particulier sur l’optimisation des déploiements, la maturité de l’automatisation et l’observabilité, permettant une intégration plus étroite entre les disciplines d’ingénierie, de test et d’exploitation. Key Responsibilities Collaborer avec des équipes transverses pour concevoir et faire évoluer des architectures cloud basées sur Azure Agir en tant que point d’escalade senior pour le support de la plateforme Azure, y compris la mise en œuvre et l’extension des capacités Azure Landing Zone Piloter l’implémentation de solutions cloud dans des domaines tels que : Infrastructure et conception de plateformes Charges de travail containerisées et serverless Services de données et de stockage Réseautique, gestion des identités, sécurité et conformité réglementaire Garantir que les environnements cloud sont maintenus à l’aide d’approches reproductibles, automatisées et standardisées Être responsable des solutions de supervision, de journalisation et d’alerting afin d’assurer la fiabilité et la performance de la plateforme Fournir un support technique de second niveau aux équipes internes lorsque nécessaire Required experience: Solide expérience pratique (5 ans et plus) avec Microsoft Azure Forte expertise en CI/CD et en automatisation de l’infrastructure (ex. : GitLab, Jenkins, Terraform, ARM templates ou Bicep) Expérience confirmée (5 ans et plus) dans des environnements orientés DevOps Capacité démontrée à livrer et à faire évoluer de nouvelles plateformes et projets basés sur Azure Une expérience préalable dans les Services Financiers ou dans des environnements réglementés est indispensable
Offre d'emploi
Data Engineer, AWS (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Nantes, Pays de la Loire
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer (F/H) pour rejoindre l’un de nos clients sur un projet stratégique autour de la data temps réel et des architectures Cloud , basé à Nantes . 🎯 Contexte Vous interviendrez sur le développement et l’optimisation de pipelines de données temps réel, dans un environnement moderne orienté Cloud et industrialisation. L’objectif : concevoir des solutions robustes, automatisées et performantes pour garantir la fiabilité et la scalabilité des flux de données. 📍 Les modalités Localisation : Nantes Contrat : CDI ou Freelance Démarrage : ASAP Conditions et rémunération ouvertes à négociation selon profil et expertise
Offre d'emploi
Développeur.euse Python, Angular et .NET
Atlanse
Publiée le
.NET
Angular
Azure
1 an
60k-70k €
500-580 €
Île-de-France, France
Chez ATLANSE, nous accompagnons nos clients dans la conception d’infrastructures résilientes, l’amélioration de la performance de leur production applicative, l’optimisation et le développement des environnements de travail ainsi que l’exploitation et la valorisation des données. Pour cela, nous nous appuyons sur nos consultants confirmés et experts ou à fort potentiel, reconnus pour leurs compétences techniques, leur compréhension métier et leurs pratiques éprouvées. Vous intervenez sur la reprise de développements existants en Python et sur la création de nouvelles solutions en environnement Angular / .NET. Votre rôle Reprise, maintenance et refonte des applications existantes · Prendre en charge des développements Python réalisés par les équipes métiers · Analyser l’existant afin d’en assurer la compréhension fonctionnelle et technique · Optimiser, maintenir et faire évoluer les applications existantes · Piloter leur refonte ou leur migration si nécessaire Développement de nouvelles applications · Concevoir et développer de nouvelles applications en environnement Angular / .NET · Mettre en production les application développées dans le respect des besoins fonctionnels · Garantir leur robustesse, leur performance et leur maintenabilité Collaboration projet et partage de connaissances · Travailler en binôme avec un autre développeur sur certains sujets techniques · Partager les connaissances et contribuer à la montée en compétence collective · Assister le chef de projet dans la définition des solutions techniques adaptées
Offre premium
Offre d'emploi
Analyste développeur C# .net
HN SERVICES
Publiée le
.NET
C#
Cergy, Île-de-France
Contexte Au sein d’un groupe bancaire, vous intégrez une équipe en charge du développement et de l’évolution d’un framework interne basé sur les technologies C# / .NET. Vous intervenez dans un environnement en transformation, avec des enjeux de modernisation, de cloudification des applications et de refonte d’un portail stratégique. Ce poste s’inscrit dans le cadre d’un remplacement et offre une bonne visibilité ainsi qu’une continuité sur des projets structurants. Missions principales Vous participez activement à la conception, au développement et à l’évolution des différents modules applicatifs reposant sur le framework interne. À ce titre, vous êtes impliqué dans les travaux de refonte et d’amélioration continue des applications existantes, ainsi que dans les projets de montée de version des environnements techniques C# / .NET. Vous collaborez étroitement avec les équipes métiers, notamment les Business Analysts, afin de comprendre les besoins fonctionnels, contribuer à la rédaction et à la validation des spécifications, et garantir la bonne adéquation des solutions développées. Vous êtes également en charge de la rédaction et de la mise à jour de la documentation technique, dans une logique de pérennité des développements et de partage de connaissances au sein de l’équipe. Enfin, vous contribuez aux réflexions autour de l’architecture et participez aux initiatives de migration vers des environnements cloud.
Offre d'emploi
Network Performance OPS Manager H/F
KOLABS Group
Publiée le
Azure
Cisco
Fortinet
1 an
70k-85k €
600-700 €
Paris, France
Nous recherchons pour le compte de notre client, acteur majeur du secteur du luxe, un Network Operations Performance Manager afin de renforcer l’équipe Technical Control & Performance. Le poste se situe à l’interface entre les équipes Architecture/Design et les équipes Operations en charge des services de supervision et de gestion réseau à distance. L’objectif est d’assurer un haut niveau de contrôle opérationnel, de qualité de service et de gouvernance technique, tout en optimisant les performances opérationnelles et la gestion des incidents dans des environnements réseau et sécurité complexes. Le rôle nécessite une solide expertise technique afin de comprendre les architectures et technologies déployées, ainsi qu’une forte expérience opérationnelle pour améliorer les processus, rationaliser les workflows ITSM et contribuer à la réduction des incidents récurrents. 💼 Missions : Assurer le contrôle opérationnel quotidien et garantir la qualité de traitement des tickets conformément aux processus ITSM définis Établir et maintenir des standards de gouvernance sur les tickets techniques, avec des revues régulières de conformité et de qualité Analyser les tendances opérationnelles, identifier les écarts de processus et améliorer le cycle de vie des tickets Identifier les corrélations entre incidents, causes racines et changements afin de réduire les problématiques récurrentes Garantir la traçabilité complète entre incidents et changements et coordonner les actions correctives avec les équipes Engineering, Service Desk et Change Management Challenger les dispositifs techniques et opérationnels existants afin d’identifier les inefficacités et proposer des améliorations alignées avec les meilleures pratiques Participer à la standardisation et à l’optimisation des processus techniques sur plusieurs environnements clients Contribuer à l’amélioration continue via l’automatisation, les dashboards, les KPI et les outils de pilotage de performance Renforcer les pratiques de gouvernance technique et réduire les risques opérationnels Accompagner les initiatives de transformation opérationnelle et d’optimisation des services réseau & sécurité 🛠 Environnement technique : LAN / WAN / SD-WAN Wi-Fi (WLAN) Sécurité réseau : Firewall, Proxy IPAM / DNS / DHCP Cisco, Meraki, Huawei Palo Alto, Fortinet Zscaler (ZIA / ZPA) Infoblox Environnements ITSM (ServiceNow, etc.)
Offre d'emploi
Data Engineer, GCP (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Offre d'emploi
Développeur Java Spring Boot Vuejs - Cloud Aws - Azure H/F
█ █ █ █ █ █ █
Publiée le
Code Review
Java
40k-48k €
Lille, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2854 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois