Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud
Votre recherche renvoie 338 résultats.
Offre d'emploi
Data Engineer / DevOps
OCTOGONE
Publiée le
AWS Cloud
Databricks
DevOps
6 mois
Paris, France
Contexte Le rôle vise à apporter l’expertise nécessaire pour soutenir les projets data et l’écosystème Databricks au sein du Groupe. L’équipe met à disposition des environnements d’évaluation et de test, définit les standards et bonnes pratiques d’usage, et accompagne les entités ayant des besoins spécifiques sur des périodes dédiées. Les interlocuteurs sont principalement des Data Specialists et Data Citizens. Les environnements techniques s’appuient sur Databricks AWS et Azure. Les activités se structurent autour de trois axes : • Data Engineering : développement et opérations data • DevOps / DataOps : déploiement, automatisation, Infrastructure-as-Code, administration des plateformes • Expertise : veille technologique, anticipation des évolutions, test et validation des nouvelles fonctionnalités. Description Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités. Livrables Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités.
Offre d'emploi
Développeur Python / Appétence DevOps - Télécom - Paris (H/F)
EASY PARTNER
Publiée le
AWS Cloud
DevOps
Python
45k-53k €
Paris, France
Missions principales Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
Offre d'emploi
Expert Cloud et Nouvelles Technologies
VISIAN
Publiée le
AWS Cloud
Kubernetes
1 an
Île-de-France, France
Missions Participation à la définition et à la mise en œuvre de la stratégie autour de l’adoption de ces nouvelles technologies. Chargé de la prospection de nouveaux services et outillages techniques liés aux nouvelles technologies (Cloud, IA, blockchain …) mis à disposition par le groupe et analyse de leur potentiel d’intégration dans le contexte technique existant. Récolte auprès du groupe et des autres entités d’un grand groupe bancaire les informations sur le périmètre technique d’utilisation et d’exploitation des nouveaux services et outils basés sur des nouvelles technologies. Analyse de leur potentiel d’utilisation et d’exploitation (valeur ajoutée) au sein du SI. Collaboration avec l’équipe Automation, effectuer des premiers tests de provisioning et d’utilisation pour juger de la maturité et la stabilité de ces services et outils. Mise en place au sein du département : Confrontation de la couverture technique et des limitations au regard des exigences techniques et de sécurité. Proposition des solutions pour les intégrer de manière optimale au SI. Identification des besoins de formation des différentes équipes pour faciliter l’adoption des nouvelles technologies associées à ces services et outils. Amélioration continue des services/outils du groupe, participation à la remontée des besoins opérationnels sur les futures évolutions de ces services/outils. Ou
Offre d'emploi
Junior Cloud Architect / Avant-Vente (AWS & Google Cloud)
SCC France SAS
Publiée le
AWS Cloud
92000, Nanterre, Île-de-France
Architecture & Avant-vente (avec encadrement Senior) Participer à la conception d’architectures Cloud (AWS, GCP) sous la supervision d’un architecte senior. Contribuer à la rédaction des livrables d’avant-vente : High Level Design (HLD), comparatifs techniques, mémoires techniques. Réaliser des chiffrages, dimensionnements et estimations de coûts via les abaques internes et les calculateurs AWS / GCP. Assister aux soutenances clients, comités techniques et réunions avant-vente, avec prise de parole progressive. Produire des architectures de référence et des schémas techniques (, Lucidchart). Support aux offres de services Contribuer à l’enrichissement des offres cloud (fiches offres, templates, battlecards). Réaliser des benchmarks et comparatifs entre les services AWS / GCP. Participer aux réponses à appels d’offres sur les volets techniques. Aider à la préparation de démos et de Proof of Concepts (PoC) dans le cadre d’opportunités commerciales. Montée en compétences & veille technologique Préparer et obtenir les certifications AWS & GCP selon le plan de formation interne. Participer aux formations internes, aux sessions partenaires et aux programmes de formations hyperscalers. Assurer une veille active sur les nouveaux services cloud, tendances du marché et bonnes pratiques. Contribuer au partage de connaissances au sein de la Cloud Practice. Support technique interne Apporter un support aux équipes Sales et Solution Architects sur les questions cloud courantes. Répondre aux sollicitations internes (sizing, pricing, éligibilité des services AWS / GCP). Activités secondaires Participer aux webinaires, événements hyperscalers et bootcamps partenaires. Contribuer à la documentation interne (runbooks, retours d’expérience, templates). Assurer un reporting régulier auprès du Practice Lead ou du SA Senior référent.
Mission freelance
devOps AWS
W Executive France SAS
Publiée le
AWS Cloud
Terraform
3 ans
400-600 €
Versailles, Île-de-France
Bonjour, je recherche pour l'un de mes clients un(e) devOps AWS. Skills : AWS - Terraform - connaissances EKS Mission : -concevoir et déployer des infrastructures sur AWS -automatiser les déploiements avec Terraform -assurer la scalabilité, la haute disponibilité et la sécurité -mettre en place et maintenir des pipelines CI/CD -automatiser les déploiements applicatifs -implémenter des solutions de monitoring -diagnostiquer les incidents et optimiser les performances N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Senior Python Developer
VISIAN
Publiée le
API
AWS Cloud
PostgreSQL
1 an
Paris, France
Missions En tant que Développeur Python Senior, vous serez amené(e) à : Concevoir et implémenter des services backend en Python pour la gestion des actifs, des contrats et des opérations de marché. Développer des API et des pipelines de données pour intégrer les composants applicatifs à l'écosystème d'information global, incluant les applications internes et externes, le hub de données, les autres systèmes de stockage de données et les consommateurs de données. Intégrer des systèmes de messagerie (MQTT, RabbitMQ) pour l'ingestion de données en temps réel. Utiliser PostgreSQL pour la modélisation, l'optimisation et l'intégrité des données relationnelles et de séries temporelles. Exploiter les services AWS tels que RDS, S3, IAM, Lambda, ECS et Docker. Collaborer avec les chefs de produit et les experts métier pour traduire les besoins métier en fonctionnalités logicielles évolutives. Contribuer aux processus de développement agile, notamment la planification des sprints, les rétrospectives et la coordination d'équipe. Participer au processus de mise en production toutes les deux semaines. Assurer le support de niveau 2 sur les applications existantes et sur les mises en production dédiées. Assurer le développement logiciel, le suivi et la mise en œuvre des correctifs, évolutions et adaptations. Fournir des solutions correctives ou des solutions de contournement selon les besoins. Compétences techniques Plus de 6 ans d'expérience en développement Python (développement d'applications). Maîtrise de PostgreSQL, notamment la conception de schémas, l'optimisation des performances et la gestion des données de séries temporelles. Expérience des services AWS (RDS, S3, IAM, ECS, Docker). Expérience des API, des pipelines de données, du streaming et autres paradigmes d'intégration de systèmes. Familiarité avec les méthodes agiles et les environnements de développement collaboratif. Les plus : Expérience avec React ou en développement front-end. Expérience avec FastAPI ou des alternatives (par exemple, Flask, Django). Familiarité avec l'orchestration de conteneurs ou les pipelines CI/CD. Outils et environnement Python PostgreSQL AWS (RDS, S3, IAM, Lambda, ECS) Docker Systèmes de messagerie : MQTT, RabbitMQ Méthodologies agiles
Mission freelance
Senior AWS Agentic
ROCKET TALENTS
Publiée le
AWS Cloud
3 mois
380-510 €
Bezons, Île-de-France
Caractéristiques : 5 à 10 ans d’expérience Anglais : obligatoire Démarrage : asap Lieu de Mission : Bezons (95) Compétences techniques : AWS Bedrock Agentcore Runtimes ST / LT memories Observability Agentcore identity Agentcore gateway Agentcore policy Cloudwatch Langchain + Lang-graph Github actions FE built with React FE likely hosted on OpenShift AWS API gateways Terraform for CICD pipelines along with Artifactory MCP and A2A agent protocols Nice to have: Knowledge of Neo4J Knowledge of GenBI platforms Weights and balances
Offre d'emploi
Data Engineer – Pipelines de données (SQL / ETL / AWS) – H/F
SMARTPOINT
Publiée le
API
AWS Cloud
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes data, nous recherchons un Data Engineer (H/F) pour intervenir sur la conception, le développement et la maintenance de pipelines de données ainsi que sur l’exploitation et l’amélioration des solutions techniques associées. Vous contribuerez au bon fonctionnement des plateformes data en assurant le développement de pipelines ETL/ELT, la manipulation de données et le maintien en conditions opérationnelles des systèmes . Vous évoluerez dans un environnement technique moderne reposant sur des architectures API/Webservices, des solutions cloud AWS et des pratiques DevOps .
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Mission freelance
FREELANCE – Ingénieur de Production (H/F)
Jane Hope
Publiée le
AWS Cloud
Openshift
6 mois
300-350 €
Nancy, Grand Est
Notre client basé à Nancy (54) est à la recherche d’un Ingénieur de Production (H/F) pour l’accompagner sur ses projets. MISSIONS · Prendre en charge l’intégration de nouvelles applications ou de progiciels, depuis la phase de réception jusqu’à la mise à disposition · Effectuer la réception, la validation et le packaging des composants applicatifs. · Installer et déployer les composants sur les environnements cibles · Réaliser la recette technique et l’homologation des applications avant leur mise en production · Participer activement à l’amélioration continue des processus et des outils d’industrialisation et de déploiement · Analyser le contexte technique et prenez connaissance des changements à intégrer · Compléter et exécuter le plan de tests techniques, en préparant les infrastructures nécessaires · Valider les documents et procédures destinés à la production · Réaliser les tests techniques (performance, intégration, compatibilité, etc.) et analysez les résultats · Contribuer au diagnostic et à la résolution des incidents en cas de dysfonctionnement · Rédiger des rapports détaillés facilitant la prise de décision pour la mise en production · Mettre à jour le patrimoine de tests réutilisable pour les futures intégrations · Assurer un reporting régulier et proposez des actions d’amélioration continue · Industrialiser et automatiser les tests récurrents à l’aide d’outils adaptés ENVIRONNEMENT TECHNIQUE · Systèmes : Linux · Cloud : AWS (EC2, S3, IAM, CloudFormation, EKS, etc.) · Outils DevOps : CI/CD, outils d’automatisation et de conteneurisation ( OpenShift , Docker, Kubernetes) · Langages et scripting : Shell / Bash / Python
Offre d'emploi
Backend Python AWS – Serverless / Produit d’hypervision
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Datadog
Python
3 ans
10k-45k €
100-380 €
Nantes, Pays de la Loire
On cherche un backend Python qui sait mettre les mains dans le run autant que dans le code . Le sujet : construire et faire évoluer des outils d’hypervision qui permettent de comprendre, en temps réel, l’état de systèmes complexes (chaînes métier complètes). Pas un projet vitrine. 👉 Un produit utilisé, qui sert vraiment. 🧩 Le contexte Petite équipe (PO, dev front, dev back, ops, agile master) Organisation agile simple, sans surcouche Beaucoup de responsabilités côté backend (logique + infra + déploiement) Tu ne seras pas “le dev backend”. 👉 Tu seras le backend . ⚙️ Ce que tu vas vraiment faire Développer des APIs en Python (propres, maintenables, utilisées) Travailler sur une archi serverless AWS (Lambda, API Gateway, S3, DynamoDB) Gérer l’infra via Terraform (pas juste lire du code) Déployer via Gitlab CI/CD Exploiter des données de monitoring (Datadog) Corriger, améliorer, optimiser → en continu Et surtout : 👉 participer à la création d’un nouveau produit (pas juste maintenir l’existant) 🧠 Stack Python AWS (Lambda, S3, API Gateway, Cognito) DynamoDB Terraform Gitlab CI Datadog 💬 Pourquoi ça vaut le coup stack propre, moderne, sans legacy lourd vraie autonomie impact direct sur le produit environnement où tu peux proposer et changer des choses
Mission freelance
expert Cloud AWS,
QUALIS ESN
Publiée le
AWS Cloud
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un profil Expert Cloud sur les 3 domaines : AWS, GCP et S3NS. Tâche 1 : Architecture et stratégie de migration Accompagnement à la migration, l'extension ou la création de nouvelles applications sur le cloud public du client. Réalisation d'études comparatives de scénarios : Cloud Public vs SaaS vs Retain (pas de migration). Sélection des services Cloud les plus adaptés (analyse gain/perte). Analyse approfondie des impacts sur le RUN et le BUILD : tests de performance, stratégie d'observabilité et d'exploitation. Animation de workshops pour la capture du besoin. Conception d'architectures Cloud multi-niveaux : Système (intégration au SI), Réseau, HLD (High Level Design) et LLD (Low Level Design). Migration de région
Mission freelance
Ingénieur AWS
ROCKET TALENTS
Publiée le
AWS Cloud
IA Générative
1 an
400-450 €
Saint-Quentin, Hauts-de-France
Equipier Infrastructure Cloud DevOps Missions Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data (BSIO), rattachée au Service Mise en marché des plateformes (MMP), et plus précisément au pôle Cloud Public. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution de plusieurs services liés aux offres Cloud Public, notamment l'hybridation Cloud (AWS). Vous travaillerez avec le client pour un accompagnement rapprocher sur un projet d’envergure afin d’apporter une expertise AWS conformément aux règles d’utilisation du Cloud Public chez le client. Description globale de l’organisation et des acteurs Groupe 2, Objet groupé Contexte : L’équipe a pour mission de faire évoluer l'offre Cloud Public destinée aux utilisateurs finaux CATS, en se concentrant sur les aspects de build, de run et d'exploitabilité des projets. L’équipier sera détaché au sein de l’équipe du client final afin d’apporter son expertise et d’assurer un accompagnement du developpement à la production du projet selon le respect des normes et bonnes pratiques définies. Les actions attendues du collaborateur sont les suivantes : Apporter une expertise technique sur le Cloud Provider AWS et veiller au respect des bonnes pratiques Cloud Public. Connaissance et usages des services IA d’AWS (Bedrock/SageMaker) Développer et maintenir des modules Terraform. Administrer des clusters Kubernetes (Amazon EKS). Concevoir et déployer des pipelines CI/CD avec GitLab, Linux, Docker et Terraform. Créer des outils internes en Python (scripts ou API) pour administrer les plateformes, générer des tableaux de bord, exposer des métriques et vérifier la conformité des déploiements et configurations (Technologies : FastAPI, GitLab, GitLab CI, Git). Accompagner les équipes internes du cluster BPCR sur l'utilisation de la plateforme Cloud Public, en assurant un support technique et méthodologique adapté à leurs besoins. Profil recherché Le nouveau collaborateur devra être en capacité et enclin à participer aux activités et tâches citées précédemment, il devra combiner de fortes compétences techniques sur les différents sujets ainsi que la capacité à avoir une vision macro d’un SI complexe. Compétences techniques nécessaires Sujet Détails Niveau requis Importance AWS Expert Haute Terraform Développement de modules Expert /Intermédiaire Haute EKS / Kubernetes Administration des clusters, Docker Intermédiaire Moyenne Python Script, API Intermédiaire Moyenne CI/CD Gitlab CI Intermédiaire Moyenne Os Linux Debian, Alpine, Ubuntu, RedHat Intermédiaire Moyenne Réseau Routage, firewall, chiffrement Intermédiaire Moyenne Active Directory Connaissances Moyenne Data Science Concept IA Générative, architecture LLM, patterns RAGs Intermédiaire Faible Des questions techniques seront posées lors de l’entretien pour valider les différents points.
Mission freelance
POT9102 - Un expert CLOUD AWS, GCP et S3NS sur Lyon
Almatek
Publiée le
AWS Cloud
6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un expert CLOUD AWS, GCP et S3NS sur Lyon. Tâche 1 : Architecture et stratégie de migration Accompagnement à la migration, l'extension ou la création de nouvelles applications sur le cloud public du client. Réalisation d'études comparatives de scénarios : Cloud Public vs SaaS vs Retain (pas de migration). Sélection des services Cloud les plus adaptés (analyse gain/perte). Analyse approfondie des impacts sur le RUN et le BUILD : tests de performance, stratégie d'observabilité et d'exploitation. Animation de workshops pour la capture du besoin. Conception d'architectures Cloud multi-niveaux : Système (intégration au SI), Réseau, HLD (High Level Design) et LLD (Low Level Design). Migration de région Tâches 2 : Acculturation et Amélioration Continue Intervention en expertise cloud : Intervenir auprès des experts internes et externes du projet sur les questions de cloud. Sensibilisation & animation : Relayer les bonnes pratiques cloud, animer ou diffuser des campagnes de sensibilisation cloud, participer à la communauté cloud du périmètre. Compétences requises : - AWS - GCP - S3NS - Expertise stratégies de mitigation hybride adaptées aux produits éditeurs - Connaissance des pipelines CI/CD, conteneurs, cloud et compréhension structurelle du code - Connaissance des normes de sécurité et référentiels applicables Les outils suivants seront utilisés : - JIRA / Confluence - Outils DevSecOPS - Cloud AWS/S3NS/GCP - Expertise OpenShift / K8s
Offre d'emploi
Data intégration Senior (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
Offre d'emploi
ML Engineer, Dataiku AWS H/F
LOMEGARD
Publiée le
Apache Spark
AWS Cloud
Dataiku
1 an
50k-65k €
500-560 €
Paris, France
Nous recherchons un ML Engineer pour accompagner le déploiement de modèles de machine learning robustes, performants et évolutifs en production. Vous intervenez dans une équipe dont le rôle stratégique est de valoriser la data. Au sein d’un environnement Data structuré, vous interviendrez sur des projets transverses mêlant data science, data engineering et MLOps. Vos principales responsabilités seront les suivantes : Optimiser la collecte et la préparation des données : data processing, feature engineering, industrialisation des pipelines. Améliorer l’exposition des modèles en production : API, endpoints, performance et scalabilité. Collaborer avec les data engineers pour intégrer les modèles dans la Data Platform. Travailler avec les data scientists afin de déployer les meilleures versions des modèles. Mettre en place des pratiques MLOps : qualité des données, suivi du data drift, monitoring, réentraînement. Assurer le suivi du cycle de vie des modèles en production. Documenter les processus, modèles et systèmes déployés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
338 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois