L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 739 résultats.
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Conception Python, Angular, AWS - Bordeaux
Signe +
Publiée le
Agent IA
Angular
AWS Cloud
60 jours
370-390 €
Bordeaux, Nouvelle-Aquitaine
🔺Contrainte forte du projet : Python, Angular, AWS Description détaillée Pour un client majeur de l'énergie (eau), expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Le livrable est : Expertise, Conception, Réalisation, Accompagnement Lieu de réalisation : Bordeaux Déplacement à prévoir : non Nombre de jours souhaitables sur site : 2 jours par semaine
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Offre d'emploi
INGENIEUR CLOUD AWS - DEVOPS
HEEVOX
Publiée le
Ansible
AWS Cloud
Azure DevOps
3 ans
40k-65k €
400-550 €
Île-de-France, France
Ingénieur Système - Cloud - DevOps Démarrage : ASAP Durée : 3 ans Localisation : Ile de France (Proche Paris) Télétravail : 50 % L’Ops, étroitement intégré dans les équipes de développement et en s’appuyant sur les experts techniques, est garant du service qu’il opère, en particulier : De la disponibilité du service Du bon fonctionnement des infrastructures sous-jacentes (Sécurité, Scalabilité…) Du monitoring global de son produit (alerting, monitoring, observabilité) De l’automatisation et de la modernisation des infrastructures (Migration Cloud, mise en place de CI/CD…) Du pilotage et de la résolution des incidents en cas de déclenchement jusqu’à leur résolution L’Ops contribue également très fortement à l’amélioration continue des outils comme des processus afin d’optimiser son travail (Automatisation, gestion des problèmes…) Mission : Être le premier point de contact technique sur les services que vous opérez Assurer ou coordonner un support Niveau 3 pour les équipes de développement (Mise en production, Déploiement, suivi des tâches “Infras”...) Assurer la bonne opérabilité du service en production (monitoring, alerting, documentation…) Optimiser votre travail et celui de vos collègues via l’automatisation (Déploiement, Maintenance, Détection de problèmes, Reporting…) Proposer, implémenter et assurer un bon niveau de sécurité Piloter et Investiguer sur la résolution d’incidents (Communication, Escalade, Animation…) Superviser son/ses services (Disponibilité, Latence, Erreurs, Sauvegardes…) Accompagner les équipes de développement et de TMA pendant les phases de conception et de développement afin d’apporter la vision “Opérationnelle” et détecter le plus tôt possible les “angles mort” Participer à l’amélioration continue des Infrastructures (migration des infrastructures “Legacy” vers le Cloud, Automatisation via d'Infrastructure as Code), de la qualité et des TTMs.
Mission freelance
Platform Engineer — Disaster Recovery AWS (remote)
CONCRETIO SERVICES
Publiée le
AWS Cloud
IAC
IAM
6 mois
Paris, France
MISSIONS PRINCIPALES Review & Challenge de l'Architecture DR Analyser et challenger l'architecture Warm Pilot existante : robustesse, faisabilité, angles morts, SPOFs non-évidents Identifier les dépendances cachées entre services AWS non visibles dans les schémas Évaluer les choix de services AWS DR (Route 53 failover, Aurora Global Database, RDS cross-region, S3 Cross-Region Replication, EKS multi-cluster) et proposer des alternatives argumentées Défendre les recommandations en arbitrant entre coût, délai et complexité opérationnelle Implémentation IaC & GitOps Implémenter en Terragrunt : configurations multi-comptes, multi-régions, modules DRY, orchestration des dépendances entre stacks Configurer ArgoCD pour les environnements DR : ApplicationSets multi-cluster, stratégies de sync, gestion des secrets Mettre en place les pipelines GitLab CI/CD pour la validation IaC et les tests automatisés Garantir la cohérence GitOps end-to-end : aucun changement d'infrastructure hors du pipeline Résilience, Réplication & Failover Implémenter les mécanismes de réplication selon les services (synchrone/asynchrone) : données, configurations, secrets Concevoir et implémenter les procédures de failover et de failback orchestrées Définir et implémenter les critères de déclenchement du basculement (health checks, alerting, seuils) Assurer la cohérence des RPO/RTO par application avec les équipes applicatives Sécurité Cross-Region & Conformité IAM cross-account, KMS cross-region, VPC peering / Transit Gateway dans le contexte DR Garantir la conformité des données répliquées : souveraineté, chiffrement, audit trail Collaborer avec les équipes sécurité sur les contraintes spécifiques au contexte DR Testabilité & Documentation Automatiser les tests de DR : scénarios de failover répétables et non-destructifs, validation des RTO/RPO atteints Chaos engineering basique pour valider la résilience en conditions contrôlées Runbooks de failover/failback exploitables par des équipes ops à 3h du matin en conditions de stress Architecture Decision Records (ADR) documentant les choix techniques et leurs justifications
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Mission freelance
Développeur AWS
Groupe Aptenia
Publiée le
Angular
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Développer et maintenir les composants backend en Python en s'appuyant sur des pratiques de test rigoureuses : JUnit, tests d'intégration, Cypress, Playwright et tests E2E Concevoir et développer les interfaces frontend en Angular avec Amazon CloudFront en respectant les standards définis par le Lead Développeur Interroger et maintenir les bases de données DynamoDB, RDS et OpenSearch Développer et déployer des applications cloud-native sur AWS (Lambda, SNS, SQS, CloudWatch, CloudFormation) en respectant les contraintes et procédures de production Appliquer les pratiques DevOps de l'équipe : Terraform, GitLab, Docker, KICS, WIZ, respect des pipelines CI/CD, du versioning et suivi des DORA Metrics Utiliser Confluence pour la documentation et Jira pour le suivi des tickets et des sprints Utiliser l'IA pour la génération, la revue et l'optimisation de code ainsi que pour les activités de test
Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data
Hexateam
Publiée le
AWS Cloud
Databricks
Python
36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
POT9074 - Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux
Almatek
Publiée le
Python
6 mois
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients ,Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux Description détaillée : Pour un client majeur ,expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Compétences techniques Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Le livrable est: Expertise, Conception, Réalisation, Accompagnement Définition du profil: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. En générale, nécessite un minimum de + de 10 ans d'expérience
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Mission freelance
Ingénieur DevSecOps AWS
Groupe Aptenia
Publiée le
Argo CD
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Concevoir et maintenir l'infrastructure as code avec Terraform sur un environnement AWS (ECS, Aurora, Lambda, S3, SQS/SNS, EventBridge, Step Functions) Mettre en place et opérer les pipelines CI/CD via GitLab CI en appliquant les pratiques GitOps Assurer la conteneurisation des applications avec Docker. Garantir la qualité logicielle via SonarQube Déployer et opérer les outils de sécurité applicative (Checkmarx SAST/SCA/KICS, WIZ) et cloud (AWS Inspector, AWS Security Hub, Prowler, TestSSL) Mettre en œuvre l'observabilité et le monitoring des environnements via CloudWatch, Grafana et la création de Synthetics dans une approche SRE Comprendre les architectures applicatives backend (Python) et frontend (Angular, JS/TS) pour contextualiser les enjeux de sécurité Utiliser l'IA pour la génération, la revue et l'optimisation de code ainsi que pour l'automatisation des tests
Mission freelance
AWS Platform Engineer remote (H/F)
STHREE SAS pour HUXLEY
Publiée le
36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2739 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois