L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 705 résultats.
Mission freelance
Expert technique Java/AWS
SQLI
Publiée le
AWS Cloud
6 mois
400-550 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients parisiens dans le secteur de l'immobilier, je suis à la recherche d'un consutlant senior/expert technique Java/AWS. Il interviendra au sein d'une nouvelle équipe actuellement en création de staffing, composée d'un chef de projet/scrum master senior, d'un tech lead expérimenté & serait la troisième pièce maîtresse venant compléter la solide équipe. Contexte : Mise en conformité avec la réforme de la facturation électronique et modernisation des processus de facturation (loyers, charges, refacturations). Objectifs : Conformité réglementaire (PPF / PDP) Fiabilisation et automatisation des flux Prise en compte des spécificités immobilières Amélioration du pilotage financier Périmètre : Analyse des processus existants Conception des processus cibles Intégration ERP / outils métiers / PDP Gestion des cas immobiliers (facturation récurrente, TVA, régularisations)
Mission freelance
Expert python - Nantes
Signe +
Publiée le
Angular
AWS Cloud
Azure
12 mois
400 €
Nantes, Pays de la Loire
Contexte de la mission Missions principales : Développement et programmation : 1. Contribution au développement de la plateforme python (évolution d'architecture, développement de nouveaux modules et librairies) 2. Contribution à la maintenance logicielle 3. Participer à l'amélioration continue des performances (prompt engineering, développement chaine de traitement IA, optimisation des traitements) 4. Maitrise des pipelines de déploiement 5. Participation active aux revues de code Collaboration avec les métiers et les Business Analysts 1. Travailler en synergie avec les équipes métiers et les Business Analysts pour comprendre les besoins et les enjeux spécifiques. 2. Traduire les exigences métier en solutions techniques innovantes et adaptées. 3. Pilotage technique des projets en autonomie Recherche et innovation : 1. Mener une veille technologique sur les dernières avancées en IA générative. 2. Proposer des idées innovantes pour de nouveaux projets ou améliorations. Documentation : Rédiger une documentation technique claire
Mission freelance
Référent Technique – Dataiku & Braincube
Streamlink
Publiée le
AI
API
AWS Cloud
6 mois
400-600 €
Malakoff, Île-de-France
Langues : Français, Anglais (obligatoire – échanges avec l’Inde) Séniorité : Senior (environnements data/ML/Cloud) Plateforme Dataiku en environnement hybride : Cloud AWS + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Le client responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité de client Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes
Mission freelance
Senior Tech Lead Cloud AWS & Azure - full remote
Net technologie
Publiée le
AWS Cloud
Azure
Cloud
3 mois
France
Contexte de la mission : Nous recherchons un Senior Tech Lead pour concevoir, déployer et maintenir des solutions technologiques avancées dans un environnement hybride et multi-cloud (AWS, Azure, on-premise). Le rôle est fortement orienté R&I / environnements de laboratoires, avec des interactions étroites entre applications scientifiques, postes de travail connectés à des instruments, data centers locaux et plateformes cloud. Le consultant travaillera en binôme avec le Domain Solutions Architect et jouera un rôle de référent technique global pour plusieurs sites internationaux. Tâches à réaliser : Piloter la conception et le déploiement de solutions hybrides et multi-cloud (AWS, Azure, on-prem) Être le référent technique global pour les environnements de laboratoires R&I Aligner les solutions avec les stratégies d’architecture d’entreprise et les roadmaps IT Intégrer des briques IA et HPC dans les solutions de recherche Garantir la sécurité, la conformité réglementaire et la cybersécurité (en lien avec les équipes dédiées) Produire et maintenir la documentation technique et opérationnelle Diagnostiquer et résoudre des incidents complexes sur des systèmes distribués Encadrer et faire monter en compétences les équipes d’ingénierie
Mission freelance
Cloud Network & Automation Engineer AWS
Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux
3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Mission freelance
Ingénieur Système & DevOps
ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration linux
AWS Cloud
Cloud privé
12 mois
600-650 €
Île-de-France, France
Pour notre client nous recherchons un Profil hybride, Ingénieur Système Réseau pour renforcer l'équipe en Exploitation avec en plus une expérience Cloud AWS orientée Devops. Missions Maintien en condition opérationnelle des infrastructures : - Assurer le bon fonctionnement des éléments physiques, procéder aux mises à jour des firmwares, procéder aux remplacements des matériels et aux câblages nécessaires - Administrer les différents réseaux, les ouvertures de flux, gérer la segmentation des réseaux, maintenir à jour les matrices des flux, assurer le bon fonctionnement des tunnels sécurisés vers d’autres SI - Gérer la capacité disponible pour les VM, le bon fonctionnement des hyperviseurs, la bonne configuration des VM et des middlewares via une méthodologie GitOPS + infrastructure as code, effectuer des tâches d’administration sur des bases de données, serveurs WEB, répartiteurs de charge, gestion des microservices Docker/Kubernetes … - Assurer le bon fonctionnement hybride des plateformes, participer et piloter des projets de migration vers le cloud Assurer la supervision et la métrologie : - Veiller au bon fonctionnement des différents éléments des infrastructures grâce à la supervision et à la métrologie en HO - Assurer des astreintes en HNO Gestion des processus ITIL : - Gestion de la documentation - Gestion des changements - Gestion des incidents - Gestion des nouveaux projets d’infrastructure : - Prendre en charge ces nouveaux projets - Documenter les nouveautés
Offre d'emploi
Lead Cloud Engineer Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Mission freelance
DevSecOps Senior – Cloud & IaC
JEMS
Publiée le
AWS Cloud
Terraform
3 ans
400-550 €
Saint-Léger-en-Yvelines, Île-de-France
Pourquoi ce rôle est intéressant Ici, tu ne viens pas « brancher des scanners ». Tu viens poser les fondations sécurité d’un écosystème cloud industrialisé, utilisé à grande échelle, avec un vrai pouvoir d’influence sur les standards, les outils et les pratiques. Le contexte est mature techniquement, mais tout n’est pas figé : il y a de la dette, des choix à challenger, des pipelines à améliorer et une vraie attente de structuration. Missions principales1. Infrastructure as Code & sécurité by design Maintenir, sécuriser et faire évoluer les modules Terraform existants. Intégrer systématiquement les bonnes pratiques de sécurité : IAM en least privilege , chiffrement (KMS), segmentation réseau, conventions de nommage et tagging standardisés. Revue de Merge Requests Terraform si nécessaire. Gestion du remote state et respect des standards définis par la Design Authority. 2. CI/CD & intégration de la sécurité Administrer, maintenir et dépanner les pipelines GitLab CI/CD : build, tests, scans de sécurité, déploiements. Intégrer et maintenir les scans de sécurité dans les pipelines : IaC (Checkov, équivalent), SAST, container scanning. Optimiser les pipelines pour garantir : des temps d’exécution acceptables, une ergonomie favorisant l’adoption par les équipes. 3. Quality gates & security gates Définir et implémenter des quality gates clairs : linting, tests, seuils de sécurité,couverture minimale. Mettre en place des security gates bloquants sur critères critiques : vulnérabilités élevées, configurations dangereuses, non-respect des standards. 4. Audit & remédiation des environnements Cloud Auditer les environnements AWS : IAM, VPC, S3, ECR, KMS, logs et monitoring. Identifier les écarts de sécurité et proposer des plans de remédiation actionnables . Industrialiser les audits récurrents : scripts Python, exports CSV / JSON, tableaux de synthèse. Produire des livrables exploitables : priorisation des findings, backlog de remédiation, suivi dans le temps. 5. Automatisation & scripting Développer des scripts Python et Bash pour : audits, scans, génération de rapports, appels API (AWS / GCP). Améliorer l’industrialisation et réduire les tâches manuelles. 6. Gouvernance des outils de sécurité Maintenir à jour les versions des outils de sécurité : Checkov, scanners SAST ,scanners container, autres outils de conformité. Mettre en place un suivi structuré (tableau de bord) : versions, conformité,dette technique sécurité. 7. Standardisation & documentation Documenter les standards, pratiques et patterns validés. Contribuer à la diffusion des bonnes pratiques auprès des équipes Dev / Ops. Participer à l’amélioration continue des processus sécurité.
Mission freelance
Chef de Projet Infrastructure / Service Owner
NEXORIS
Publiée le
AWS Cloud
Infrastructure
PowerBuilder
1 an
400-550 €
Île-de-France, France
Notre client recherche un Chef de Projet Infrastructure / Service Owner (H/F) dans le cadre d'une longue mission. Dans un contexte de transformation IT au sein d’un grand compte du secteur du luxe, la mission consiste à piloter des projets d’infrastructure variés (on-premise et cloud) tout en assurant un rôle de Service Owner orienté projet. - Piloter des projets d’infrastructure de tout type (build & transformation) - Assurer l’avancement des projets dans un contexte de changements réguliers de gouvernance (CTO) - Préparer et sécuriser le passage en run (mise en production et stabilisation) - Accompagner la transformation des environnements techniques - Coordonner les équipes techniques (infra, cloud, exploitation) - Assurer le suivi budgétaire et le respect des délais - Être garant de la qualité de service sur le périmètre confié Le consultant sera challenger pour son autonomie et sa capacité a lancer les projets dans un environnement subissant de fort changement, côté direction technique.
Mission freelance
Ingénierie DevOps
VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud
3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Offre d'emploi
Ingénieur Systèmes & Cloud – Automatisation / Build & Run (H/F)
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Azure Active Directory
Windows Server
3 ans
Villeneuve-d'Ascq, Hauts-de-France
Dans le cadre d’une mission longue durée, nous recherchons un Ingénieur Systèmes & Cloud pour intervenir chez l’un de nos clients stratégiques. 📌 Répartition des activités : 80% Build (projets, modernisation, automatisation) 20% Run (maintien en conditions opérationnelles) 🚀 Vos missions 🔧 Administration & Exploitation Administration et évolution des environnements Microsoft Windows Server , Active Directory , Entra ID (Azure AD) Support N3 sur les infrastructures serveurs Gestion et optimisation des environnements VMware (vSphere, vCenter) ☁️ Cloud & Transformation Participation à la migration et à l’exploitation d’environnements Cloud publics et privés Mise en œuvre de solutions Infrastructure as Code (IaC) : Terraform, Packer, Ansible, PowerShell Contribution aux projets de transformation IT : sécurité, automatisation, modernisation Veille technologique et recommandations sur les bonnes pratiques Cloud & Systèmes
Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud
VISIAN
Publiée le
AWS Cloud
Databricks
PySpark
3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Mission freelance
Ingénieur Cloud AWS Confirmé
Signe +
Publiée le
AWS Cloud
Docker
Kubernetes
6 mois
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Ingénieur Cloud AWS Confirmé. En tant qu’ Ingénieur Cloud AWS Confirmé , vous jouerez un rôle clé dans la conception, le déploiement et l’optimisation d’architectures AWS sécurisées et performantes. Vos responsabilités : Concevoir et déployer des environnements AWS (ECS, Lambda, Kinesis, OpenSearch…). Automatiser et industrialiser via Terraform et pipelines CI/CD (GitLab CI, Jenkins). Garantir la sécurité et la conformité Application des bonnes pratiques AWS (Well Architected Framework). Gestion avancée des identités et accès (IAM, rôles, politiques). Mise en place de solutions de protection (AWS WAF, Shield, GuardDuty). Intégration des systèmes d’authentification (SSO, SAML). Collaborer avec des experts AWS pour faire évoluer les architectures et partager les bonnes pratiques.
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Offre d'emploi
Developpeur Full stack ReactJS /JVM- senior
KEONI CONSULTING
Publiée le
AWS Cloud
Datadog
Java
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un développeur fullstack senior sur un produit critique qui accompagne les conseillers clients dans les parcours après-vente (consultation, annulation, échange, etc.) et s’inscrit dans un écosystème applicatif complexe, composé de plus de 30 équipes organisées par produits et domaines. La mission s’inscrit dans un contexte de développement de nouvelles fonctionnalités, d’amélioration continue et d’évolution des pratiques de déploiement et de qualité logicielle. MISSIONS La mission suppose une intégration au sein d’une équipe agile pluridisciplinaire d’environ une petite dizaine de personnes (PO, QA, développeurs, DevOps), en charge du développement et de l’évolution du produit. Le développeur fullstack interviendra sur l’ensemble des couches applicatives : - Frontend (ReactJS), - Backend sur stack JVM (Java / Kotlin, Spring), - Chaîne CI/CD et déploiement sur environnement cloud AWS. Il devra maîtriser les bonnes pratiques de développement frontend et backend, ainsi que les principes de qualité logicielle, de tests automatisés, de livraison continue et d’exploitabilité en production. Une capacité à être rapidement autonome et à collaborer efficacement dans un environnement multi-équipes est attendue. Environnement technique : - Langages : Java (≥ 21), Kotlin, JavaScript - Frameworks : Spring / Spring Boot (backend), ReactJS (frontend) - Architecture & services : APIs REST, microservices, serverless - Cloud & Serverless : AWS (Lambda Node.js & JVM, API Gateway, S3) - Données : MongoDB, DynamoDB - Build & scripting : Gradle, Bash - CI/CD : GitLab CI, AWS - Monitoring : Datadog - Infrastructure as Code : Terraform Livrables La mission : • Développer et faire évoluer les fonctionnalités du backoffice en lien avec les besoins des équipes de relation client. • Contribuer à l’évolution des services backend de distribution. • Participer à la migration des composants applicatifs vers les nouveaux standards techniques et organisationnels (monorepo, continuous delivery). • Garantir la qualité des livrables sur l’ensemble du cycle : cadrage, développement, tests automatisés, validation. • Participer activement à l’intégration continue et aux déploiements automatisés. • Collaborer avec les autres équipes produit et techniques afin d’assurer la cohérence fonctionnelle et technique au sein de l’écosystème (30+ équipes). • Veiller à la qualité et à l’exploitabilité du produit en production. • S’impliquer dans la vie de l’équipe agile et partager son expertise avec les autres membres. Compétences Compétences techniques attendues : - Backend : Java 21 (Kotlin apprécié), Spring, Git. - Frontend : Typescript, ReactJS. - Expérience sur des environnements cloud, idéalement AWS. - Maîtrise des pratiques CI/CD, tests automatisés et qualité logicielle. - Bonne compréhension des problématiques de production et d’exploitabilité. Compétences fonctionnelles et comportementales : - Forte appétence produit et métier, capacité à comprendre les enjeux fonctionnels. - Expérience significative en développement avec une posture de référent technique ou de soutien aux autres développeurs. - Esprit collaboratif, proactif et autonome. - Capacité à communiquer efficacement dans un environnement multi-équipes.
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1705 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois