L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 551 résultats.
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python
Publiée le
AWS Glue
Python
6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Mission freelance
Expert BDD AWS
Publiée le
AWS Cloud
AWS Cloudwatch
DevOps
6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Offre d'emploi
Développeur AWS (H-F)
Publiée le
30k-35k €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré à nos équipes sur nos projets ou chez nos clients, vous interviendrez sur un projet de développement : -Développer et maintenir les fonctionnalités confiées, en conformité avec les spécifications techniques et les bonnes pratiques cloud. -Participer aux revues de code avec les membres de l'équipe afin d'assurer un niveau de qualité élevé. -Écrire et maintenir des tests unitaires et fonctionnels dans le cadre de vos développements. Stack technique : -AWS -Python, Node.js ou Java (selon les projets)
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Offre d'emploi
Developpeur Python/ AWS junior
Publiée le
AWS Cloud
Python
12 mois
40k-45k €
230-300 €
La Défense, Île-de-France
Télétravail partiel
Développeur Python / Cloud AWS – Environnement Réseau & Sécurité Nous recherchons un développeur Python (profil junior) souhaitant évoluer dans un environnement technique riche, mêlant automatisation , cloud AWS . Au sein d’une équipe dynamique, vous interviendrez sur plusieurs projets d’automatisation destinés aux équipes réseau & sécurité. Vos missions Participer à la qualification des besoins et à la conception des solutions. Développer des scripts et services Python permettant d'automatiser des actions sur des équipements réseau/sécurité. Interagir avec diverses API (F5, Zscaler, Palo Alto, Fortinet, Cisco…). Déployer les solutions dans un environnement AWS (Lambda, API Gateway, S3, etc.). Contribuer à la documentation , aux spécifications , Collaborer au sein d’un cadre agile , avec daily et sprints mensuels.
Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D
Publiée le
AWS Cloud
6 mois
100-450 €
Île-de-France, France
Télétravail partiel
Objectifs de la mission : Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrables : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Offre d'emploi
Développeur backend AWS Serverless H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte de la mission : Dans le cadre de la modernisation de son système d'information, notre client a mis en place une plateforme middleware destinée à orchestrer et sécuriser les échanges d'informations entre de nombreuses applications internes et externes. La mission s'inscrit au sein d'une équipe agile en charge de concevoir, développer et maintenir des flux complexes : traitement de fichiers, messages événementiels, données volumineuses, alimentation d'un datalake et supervision en temps réel. L'environnement technique est entièrement cloud-native, basé sur un écosystème AWS Serverless moderne et scalable. Responsabilités : Intervenir au coeur des développements backend et de l'architecture des flux d'intégration entre systèmes ; Etre responsable de la conception, du développement et de la maintenance de pipelines d'échanges robustes et performants, en garantissant la qualité du code, la résilience des traitements et la sécurité des données ; Analyser les besoins métiers, concevra les flux adéquats (synchrone, asynchrone, événementiel, batch) ; Assurer la transformation et le routage des données, et contribuer à l'architecture globale de la plateforme ; Participer à la mise en oeuvre des bonnes pratiques de sécurité, à l'optimisation des performances et au monitoring de bout en bout des traitements.
Offre d'emploi
Architecte Cloud AWS
Publiée le
Amazon Elastic Compute Cloud (EC2)
Ansible
Argo CD
36 mois
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de missions d’accompagnement Cloud auprès de clients grands comptes, vous serez amené(e) à : Concevoir des architectures Cloud AWS sécurisées, robustes et évolutives , adaptées aux exigences métiers et techniques des clients ; Implémenter, automatiser et déployer des solutions AWS en respectant les standards de sécurité, de performance et de conformité ; Conseiller et orienter les clients sur les bonnes pratiques Cloud (Well-Architected Framework, FinOps, sécurité, gouvernance) et les aider à optimiser leurs environnements et investissements AWS ; Gérer, superviser et maintenir les infrastructures AWS , tout en garantissant une haute disponibilité, un niveau de sécurité optimal et de bonnes performances opérationnelles ; Collaborer étroitement avec les équipes de développement, d’exploitation et de sécurité afin d’assurer une intégration fluide des solutions Cloud dans les workflows existants.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Architecte AWS
Publiée le
AWS Cloud
1 an
500-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Architecte Architecte logiciel et applicatif / Cloud AWS. Secteur d'activité client final : énergie Contexte : Le consultant interviendra dans une équipe en tant qu’architecte applicatif et logiciel sur les technologies Cloud AWS. Son rôle d’Architecte Cloud consistera à assembler (Architecte ensemblier) de services applicatifs (souvent fournis par un service Platform sous forme de module Terraform) pour intégrer des frameworks logiciels, des services de stockage, des services d’IA, de l’outillage de IAC/CI/CD, d’outillage d’observabilité ou de résilience.
Offre premium
Mission freelance
Formateur IT - BTS SIO SISR
Publiée le
Administration systèmes et réseaux
AWS Cloud
Scripting
3 mois
260-300 €
Saint-Denis, Île-de-France
Bonjour, Dans le cadre de la recherche pour une de nos marques en interne. Nous avons besoin d'un Formateur Technique qui a déjà eu une expérience professionnelle significative en administration systèmes/réseaux ou sécurité informatique et une expérience en formation est obligatoire en BTS SIO SISR. C'est une mission à temps partiel tous les mercredis et les jeudis . Compétences techniques indispensables: Systèmes : Windows Server, Linux (Ubuntu/Debian), AD, GPO Réseaux : VLAN, routage, firewall, VPN, services réseaux Supervision : Centreon, Zabbix, Nagios Virtualisation : VMware, Hyper-V, Proxmox Cloud : Azure (idéal), AWS (apprécié) Cybersécurité : Hardening, pare-feu, IDS/IPS, analyse de logs Scripts : Bash, PowerShell Outils : Git, Docker (bonus), GLPI, OCS, Visio /
Offre d'emploi
Lead Developer Node.js / AWS
Publiée le
AWS Cloud
Node.js
52k-72k €
69009, Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2551 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois