L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 774 résultats.
Mission freelance
Ingénierie en sécurité Opérationnelle
Sapiens Group
Publiée le
Google Cloud Platform (GCP)
IAM
1 an
Paris, France
Contexte et détails de la mission Objectif global : Accompagner la sécurisation du Cloud public réglé. Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maîtrise de l'IAM et de l'automatisation, de Terraform et des chaînes CI/CD. Compétences techniques requises IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Développement Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Anglais Professionnel - Impératif Description détaillée Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes aux règles de sécurité, incluant la gestion des identités, des accès et des permissions. Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. Mise en œuvre des meilleures pratiques et contrôles au travers d'outils tels que AWS SCP, GCP Deny Policy et autres. Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. Documenter les processus, les configurations et politiques mises en place. Profil recherché Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Mission freelance
Engineering manager
HAYS France
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js
3 ans
100-550 £GB
Lille, Hauts-de-France
En tant qu'Engineering Manager, et avec l’appui des deux Lead engineers de l’équipe, vous garantissez l’excellence opérationnelle, la qualité technique et la performance des équipes de développement, tout en assurant un delivery fiable et aligné avec les objectifs de la plateforme. Vous êtes garant de la résolution des défis technologiques, tout en garantissant l’application des meilleures pratiques d’ingénierie logicielle. Ce rôle est conçu pour un profil "hands-on" : vous ne développez pas au quotidien, mais vous restez proche du code pour orienter les choix d'architecture, lever les bloqueurs techniques complexes et garantir que notre "usine logicielle" est la plus performante possible.
Offre d'emploi
Expert Cloud GCP / S3NS
CAT-AMANIA
Publiée le
Apigee
Artifactory
CI/CD
Île-de-France, France
Objectif poursuivi pour cette mission L’objectif de cette mission est de renforcer l’équipe technique pour : • • Participation au Design & Implémentation de la landing zone S3NS (Organisation, Auth & Habilitation, Réseau, Sécurité, Chiffrement, Gestion des clés & secrets, intégration avec le SI Bpifrance) • Participation à la mise en place des briques de sécurité (Cloisonnement, FW, Bastion Wallix, Intégration au SOC Palo Alto) • Intégration avec les briques de service du SI (Observabilité Datadog, Event Confluent, Atlas MongoDb, Solution Finops en dev spe, SSO Ping Identity, Cnapp Prisma, Sauvegarde Commvault...) • Abstraction des services & Intégration à la plateforme de service (0 ticket, Automatisation par event & API) • Accompagnement à la migration des premières applications sur le périmètre Assurance Export (28 applications • Architecture Cloud Sécurisée : Expertise dans la conception et l’implémentation de Landing Zones Cloud multi projet avec un fort accent sur la sécurité (Firewall, IAM, régulation). • Réseaux cloud : Maîtrise des concepts de réseaux sur un environnement GCP, incluant VPC, VPN, pare-feu NAT, etc. • Certification GCP • API & Plateforming : Capacités dans l’intégration et la gestion des API (par ex, Apigee). • Approche DevSecOps : Connaissance des outils d’intégration/delivery continue et des pratiques d’automatisation pour assurer la scalabilité et le MCS. • Connaissance méthodologie SAFE.
Mission freelance
DevOps GCP - Rennes
Intuition IT Solutions Ltd.
Publiée le
DevOps
Google Cloud Platform (GCP)
6 mois
400 €
Rennes, Bretagne
1. Contexte du besoin Le client recherche un Consultant DevOps pour rejoindre une équipe existante de 3 DevOps . Cette équipe intervient sur la ligne de produits “Gestion Commerciale en magasin” , solution de back‑office utilisée quotidiennement par plus de 1400 magasins pour la gestion des produits, prix, stocks, commandes, inventaires, balances, traçabilité et étiquettes électroniques..pdf) La mission implique des interventions sur deux environnements : Serveurs Windows en magasins Solutions Cloud, idéalement GCP (Google Cloud Platform) 2. Profil recherché Type : Consultant DevOps Séniorité : 5 ans minimum Capacité attendue : Forte autonomie + esprit collectif
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Offre d'emploi
Expert / TechLead GCP - Toulouse
Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)
IAM
6 mois
Toulouse, Occitanie
Nous recherchons un Expert / Tech Lead GCP pour intervenir sur des projets stratégiques à forte valeur. Le rôle combine architecture cloud, DevOps/SRE et sécurité, avec une forte implication sur la conception et le delivery de solutions sur Google Cloud Platform. Vous évoluerez au sein d’une équipe cloud structurée, en lien avec différentes parties prenantes. Expertise GCP, Kubernetes (GKE), Terraform et sécurité (IAM, KMS, Zero Trust) requises. Poste basé en région toulousaine, avec perspective d’intégration en CDI après 6 mois de prestation.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD
12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Offre d'emploi
Ingénieur DevOps GCP RUN & Automatisation H/F
Le Groupe SYD
Publiée le
CI/CD
Powershell
12 mois
48k €
480 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps GCP RUN & Automatisation H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur de la distribution / retail , engagé dans la modernisation, la fiabilisation et l’uniformisation de ses environnements applicatifs. Tu interviens au sein d’un écosystème hybride mêlant infrastructures legacy Windows , plateformes on‑premises , environnements GCP , et un parc national de magasins en production avec de forts enjeux de disponibilité. Aux côtés du Lead DevOps déjà en place, tu renforces l’équipe sur la partie RUN , la maintenance, l'amélioration continue et la mise sous contrôle des plateformes existantes, tout en participant aux chantiers d’automatisation et de modernisation. Tu auras pour missions de : Assurer le RUN , la maintenance et la fiabilisation des plateformes applicatives Windows existantes (legacy & production magasins). Mettre à jour, maintenir et optimiser les bases SQL Server utilisées en production et en salle de recette. Gérer les déploiements de packages applicatifs Windows sur les environnements distribués. Automatiser les opérations récurrentes et contribuer à la montée en maturité DevOps. Intervenir sur des environnements GCP , participer aux déploiements et aux évolutions cloud. Participer à la résolution d’incidents, à l’analyse des problématiques et à la continuité de service. Travailler en étroite collaboration avec le Lead DevOps pour assurer la cohérence globale des pipelines et des bonnes pratiques. 🧰 Stack technique : OS & Infra : Windows Server, environnements legacy, production magasins, virtualisation. Databases : SQL Server. CI/CD & Automatisation : PowerShell, scripts d’automatisation, pipelines CI/CD. Cloud : GCP (Compute, CI/CD Cloud, services managés). Autres environnements : plateformes hybrides (on‑prem / cloud), environnements distribués multipoints, salles de recette & production.
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Offre d'emploi
Cloud Sec Ops Engineer
KS Consulting
Publiée le
Azure
Google Cloud Platform (GCP)
6 mois
Paris, France
Le consultant interviendra principalement pour reprendre et opérer les activités Cloud SecOps existantes, tout en préparant et en réalisant la passation structurée vers le ou les futurs acteurs internes/externes qui reprendront le poste. N’hésitez plus à proposer votre profil si vous avez… Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS) Une appétence avérée pour les IA modernes (Claude, Gemini, Vertex AI) et les technologies associées (MCP, AI toolchains) Une connaissance des méthodes d’évaluation des risques et des référentiels (OWASP) un plus ! Une bonne compréhension des CIS Controls et/ou CIS Benchmarks pour guider les pratiques de durcissement et de conformité Cloud. Des notions sur la réglementation sécurité (protection des données, privacy…)
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Senior DevOps GCP
KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform
3 ans
Paris, France
Dans le cadre de projets de transformation numérique, nous recherchons un Senior DevOps GCP pour accompagner nos clients dans l’industrialisation de leurs environnements cloud. Vous interviendrez sur des missions d’audit, de cadrage et de mise en œuvre de solutions DevOps sur GCP. Vous analyserez les architectures existantes, proposerez des trajectoires d’évolution et mettrez en place des pipelines CI/CD adaptés. Vous contribuerez également à la sécurisation des environnements, à l’automatisation des déploiements et à l’amélioration des pratiques d’observabilité. En parallèle, vous accompagnerez les équipes client dans leur montée en compétence sur GCP et les pratiques DevOps modernes.
Offre d'emploi
CONSEILLER, PLATEFORME AWS
Chrome Technologies
Publiée le
AWS Cloud
AWS CloudFormation
Montréal, Québec, Canada
Nous recherchons un Conseiller, Plateforme AWS pour rejoindre notre équipe de conseillers du bureau de Montréal. Ce poste est en mode hybride. Nous prenons en charge les démarches administratives pour obtention d'un permis de travail au Québec. Tâches Relevant du Directeur, Infranuagique, il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes. Il collaborera avec les autres équipes TI et les fournisseurs, afin de soutenir l'environnement selon les normes et processus établis et d'en assurer la surveillance et le fonctionnement optimal. Le titulaire, en tant que spécialiste, aura pour responsabilité principale d'assurer la stabilité, la disponibilité et la performance des infrastructures infonuagiques AWS. Il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes, en collaboration avec les autres équipes TI et les fournisseurs. Responsabilités - Concevoir, développer et déployer des solutions d'infrastructure cloud sur AWS; - Effectuer le « mapping » de données pour les transformations vers l'entrepôt de données et ses environnements informationnels; - Assurer la surveillance proactive de l'environnement; - Analyser et diagnostiquer les problèmes liés aux infrastructures infonuagiques et aux services réseautiques; - Participer en tant qu'expert aux projets et initiatives infonuagiques.
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Mission freelance
ML Engineer
Bifora
Publiée le
Apache Airflow
CI/CD
FastAPI
12 mois
400-550 €
Paris, France
Contexte Mission au sein de la Direction Data d'un grand groupe média français. L'équipe porte la personnalisation de l'expérience utilisateur sur les offres numériques. Elle travaille sur des sujets de recommandation et de machine learning en production. L'équipe est composée d'un Product Owner, un Data Scientist, un Lead ML Engineer et un ML Engineer. Stack technique : Google Cloud Platform, Python, Vertex AI, BigQuery, Cloud Run, Airflow. Positionnement transverse, en lien direct avec la Direction Technique du Numérique et les équipes Data Engineering. Responsabilités Concevoir et maintenir des pipelines ML robustes, de la collecte des données à l'exposition des modèles via API REST Créer un premier cas d'usage de personnalisation utilisateur, le déployer et l'AB tester en production Mettre en place le monitoring et le contrôle des performances des modèles Organiser et structurer le stockage des données Industrialiser les modèles IA en lien avec les Data Scientists Construire et maintenir les workflows CI/CD Assurer l'évolutivité, la sécurité et la stabilité des environnements Collaborer avec les Data Engineers et les équipes techniques sur les bonnes pratiques Contribuer à la documentation et à la veille technologique Participer aux phases de cadrage, planification et réalisation en méthode Agile Environnement technique Python, SQL Google Cloud Platform (Vertex AI, BigQuery, Cloud Run) Airflow (orchestration) Flask / FastAPI Terraform (Infrastructure-as-Code) TensorFlow, scikit-learn GitLab, GitLab CI/CD
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2774 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois