L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 049 résultats.
Mission freelance
Chef de Projet Migration Cloud H/F
AGH CONSULTING
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
300-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Responsable projets Migration Cloud expérimenté pour piloter des programmes de Move to Cloud sur des environnements GCP, Azure et AWS. A ce titre, vos principales missions seront les suivantes : ▪ Piloter des programmes de migration Cloud de bout en bout (de la phase d’appel d’offres jusqu’à la mise en production et l’acceptation) ▪ Définir et sécuriser les stratégies de migration dans des contextes multi-cloud et réglementés ▪ Coordonner l’ensemble des parties prenantes : Project Manager, Product Design Authority, équipes d’architecture, de sécurité, partenaires et sous-traitants ▪ Garantir le respect des coûts, délais, qualité et conformité des projets ▪ Assurer le pilotage global des risques, dépendances et plans d’actions ▪ Mettre en place une gouvernance projet structurée (revues, comités, reporting
Mission freelance
Développeur Python / Full‑Stack orienté AWS
Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python
3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Offre d'emploi
Ingénieur DevSecOps - (H/F)
SWING-ONE
Publiée le
Ansible
AWS Cloud
CI/CD
6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Dans le cadre du renforcement de la stratégie de sécurité applicative et cloud, nous recherchons pour notre client Grand-Compte un Ingénieur DevSecOps pour intégrer la sécurité au cœur de leur processus DevOps. MISSIONS PRINCIPALES : Intégrer les outils de sécurité dans les pipelines CI/CD Automatiser les analyses de vulnérabilités (SAST, DAST, SCA) Sécuriser les environnements cloud (AWS, GCP) et on-premise Participer aux audits et garantir la conformité (ISO 27001, NIST…) Collaborer avec les équipes Dev pour optimiser les processus de développement Travailler étroitement avec les équipes Ops pour assurer disponibilité, performance et fiabilité Mettre en place des outils de monitoring et de détection d’intrusion Participer activement à la gestion des incidents de sécurité
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Mission freelance
Administrateur Bases de Données PostgreSQL Expert (Infra / Cloud)
Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
DevOps
12 mois
Paris, France
Contexte de la mission Une grande organisation internationale opérant dans un environnement critique et fortement digitalisé investit massivement dans la modernisation de son système d’information, avec un accent particulier sur l’infrastructure et le cloud first (Azure / AWS). Dans le cadre d’un remplacement et d’un renforcement des équipes, elle recherche un Administrateur de Bases de Données PostgreSQL Expert afin d’intervenir au sein d’une équipe DBA transverse, en lien étroit avec les équipes infrastructure, plateformes et développement applicatif. L’environnement est hybride : On-Premise, Cloud Azure et Cloud AWS, avec des exigences élevées en disponibilité, sécurité et automatisation. 2. Objectifs de la prestation Le consultant interviendra sur l’ensemble du cycle de vie des bases de données PostgreSQL : Architecture et design des solutions bases de données Build et mise en production Maintien en condition opérationnelle (MCO) Optimisation des performances Sécurité, supervision et résilience des environnements Il jouera un rôle de référent PostgreSQL et contribuera activement à la démarche DevOps DBA . 3. Périmètre fonctionnel et technique3.1 Administration & exploitation Administration N3 des environnements PostgreSQL (IaaS et PaaS) Installation, configuration, sécurisation et mises à jour PostgreSQL Sauvegarde, restauration et PRA (pg_dump, pg_basebackup, pgBackRest…) Optimisation des performances (requêtes, index, plans d’exécution) Gestion des extensions PostgreSQL (PostGIS, pg_stat_statements, etc.) Supervision et monitoring des bases 3.2 Automatisation & Cloud Automatisation des déploiements et opérations via Ansible, Git, scripting Intégration avec les outils cloud : Infrastructure as Code (Bicep) Supervision et logs (Azure Monitor, Log Analytics) Contribution à la mise en place de dashboards techniques (Grafana) 3.3 Collaboration & support Support technique de niveau avancé Assistance aux équipes de développement et d’infrastructure Rédaction de documentation technique (HLD / LLD, procédures) Participation aux projets en méthodologie agile Interface technique avec des équipes internationales 4. Environnement technique PostgreSQL (production critique) Cloud : Azure & AWS OS : Linux / Unix (Red Hat, Debian…) Infrastructure virtualisée Supervision : Grafana, Prometheus, Zabbix (ou équivalent) Automatisation & DevOps : Ansible, Git, scripting Bash / Python / PowerShell 5. Compétences requises5.1 Compétences techniques clés PostgreSQL expert (plus de 10 ans d’expérience attendue) Administration avancée PostgreSQL en environnement cloud Azure PostgreSQL Flexible Server AWS RDS PostgreSQL Sécurité des bases de données (rôles, chiffrement, audit) Automatisation et Infrastructure as Code Supervision et observabilité 5.2 Certifications Microsoft Certified: Azure Database Administrator Associate (DP-300) – obligatoire 5.3 Compétences générales Excellente capacité d’analyse et de résolution de problèmes complexes Forte rigueur technique et documentaire Capacité de synthèse et de communication Gestion des priorités et résistance au stress Anglais professionnel niveau B2 minimum (oral et écrit) 6. Modalités de la mission Démarrage souhaité : 16/03/2026 Fin de mission initiale : 12/03/2027 Durée : 1 an, renouvelable jusqu’à 3 ans maximum Temps de travail : Temps plein Astreintes : 1 semaine sur 2 ou 3, après période d’adaptation Télétravail : Tous les lundis et mardis Un vendredi sur deux 7. Localisation France : région parisienne (site principal) Belgique : déplacements réguliers à prévoir (Bruxelles) 8. Livrables attendus Time tracking mensuel Rapports d’activité (hebdomadaire / mensuel) Tableaux de bord techniques Documentation d’architecture (HLD / LLD) Procédures d’exploitation Spécifications techniques Documentation PRA et sécurité Contributions aux référentiels techniques internes
Mission freelance
DevSecOps Azure Senior (H/F)
Centhys
Publiée le
Azure
Cloud
Datadog
4 mois
400-600 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un renfort opérationnel lié à un manque de ressource interne, nous recherchons un DevSecOps Azure Senior afin d’intervenir sur un environnement Microsoft Azure multi-tenant à forts enjeux de sécurité. La mission consiste à sécuriser et maintenir les environnements cloud, intégrer les bonnes pratiques DevSecOps dans les pipelines CI/CD et assurer la gestion des vulnérabilités détectées via Tenable et Trivy. Le consultant interviendra sur la gestion des identités et des accès (Entra ID : RBAC, Conditional Access, policies), la supervision et le traitement des alertes via Defender for Cloud, ainsi que la coordination des actions correctives dans un contexte multi-tenant. Une participation active à la réponse à incident est attendue : analyse, qualification, remédiation et amélioration continue des dispositifs de sécurité. Le profil devra être autonome, capable de prendre des décisions techniques structurantes et d’assurer un rôle moteur auprès des équipes internes et partenaires cloud. Mission basée à Boulogne-Billancourt, 2 jours par semaine, durée estimée 3 à 4 mois, démarrage ASAP.
Offre d'emploi
TECH LEAD DATA (H/F)
WE +
Publiée le
Agile Scrum
AWS Cloudwatch
AWS Glue
9 mois
Roissy-en-France, Île-de-France
Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs. => Pilotage technique du Datalake AWS CAP 2.0 Ingestion et transformation des données Gouvernance, qualité et bonnes pratiques Management de projets et méthodologies BI, reporting & outils analytiques TMA, incidents et opérations Monitoring, FinOps & optimisation Profil & atouts clés : ▪Expérience de projets technique au sein d’environnements complexes (minimum 5 ans) ▪Capacité à piloter une équipe de développement internationale ▪Capacité à challenger les développements, à solutionner les problématiques rencontrées ▪Solide expertise Cloud AWS et architectures data modernes ▪Maîtrise des concepts de Data Mesh et des bonnes pratiques de gouvernance ▪Vision globale : technique, fonctionnelle, projet, qualité, budget ▪Capacité à structurer, documenter, rationaliser et optimiser les environnements data ▪Aptitude à la synthèse et à la communication claire avec les équipes techniques et métiers ▪Approche orientée performance, fiabilité et amélioration continue ▪Anglais lu, écrit, parlé
Offre d'emploi
Program IT Lead - R&D Cloud, Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
Azure
Cybersécurité
6 mois
Occitanie, France
Program IT Lead pour un programme R&D Data & IA d’envergure. Pilotage d’une transformation Cloud & Data visant à accélérer les usages IA en recherche médicale et biostatistique. Construction et opération d’un Cloud-as-a-Service industrialisé, sécurisé, observable et conforme aux exigences réglementaires. Gouvernance des architectures, du delivery et des coûts via une démarche FinOps en environnement multi-cloud. Rôle d’interface entre IT, data, sécurité et métiers R&D pour transformer des besoins complexes en solutions robustes, audit-ready et scalables.
Offre d'emploi
Développeur SENIOR C# .NET backend Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
.NET
Azure
C#
3 ans
40k-60k €
400-550 €
Paris, France
🏭 Secteurs stratégiques : Asset Management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur sénior en c# qui maitrise Azure. Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage des solutions à implémenter • Codage des US • Mise en place des pipelines CI/CD en collaboration avec l’infrastructure • Suivi de la recette, de l’UAT et de la production. • Rédactions de documentation Durée de la mission La mission est prévue pour 3 mois, renouvelable.
Mission freelance
Expertise sécurité Azure / Palo Alto / F5
CS Group Solutions
Publiée le
Azure
6 mois
Paris, France
Nous recherchons un Expertise Azure et Palo Alto/ F5 Compétences techniques Azure - Expert - Important Palo Alto - Confirmé - Important F5 - Confirmé - Important Description détaillée Mission d’expertise technique pour l’ouverture urgente d’une application du client sur Internet via l’infrastructure Azure. L’expert doit maîtriser pleinement les composants de sécurité en cours de déploiement : Le livrable est - Compétences techniques Palo Alto (workloads) F5 Azure DNS Azure Firewall Environnement Microsoft Azure
Mission freelance
DevOps azure Python IAM sur Paris
EterniTech
Publiée le
Azure DevOps
CI/CD
IAM
3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
🚀 Développeur Backend Python – Microservices - Lyon
Tenth Revolution Group
Publiée le
API REST
AWS Cloud
FastAPI
12 mois
220-400 €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte de la mission Dans le cadre d’un renfort urgent, nous recherchons un Développeur Backend Python expérimenté pour intégrer une équipe tech et contribuer activement au développement et à la livraison de microservices en environnement cloud. Objectif : produire, tester et livrer du code robuste , orienté production. Ce n’est pas un poste R&D. On cherche quelqu’un qui exécute, structure et délivre. 🛠️ Missions principales Développement de microservices en Python Conception et implémentation d’ API REST Rédaction de code propre, maintenable et testé Mise en place et exécution de tests (unitaires / intégration) Participation aux choix techniques backend Contribution à l’amélioration continue des pratiques de développement Collaboration avec équipes produit / infra
Mission freelance
Architecte Data - Lyon
Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture
6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelances : comment vous gérez votre admin au quotidien ?
- SASU IR - Prelevement sociaux
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
5049 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois