Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Paris

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 138 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Senior Backend Engineer (Go)

Tenth Revolution Group
Publiée le
AWS Cloud
Docker
Go (langage)

6 mois
Paris, France
📣 Senior Backend Engineer (Go) – Scale & Performance – Environnement à fort trafic Un acteur majeur du secteur des réseaux sociaux et plateforme à très forte volumétrie , recrute un Backend Engineer Senior spécialisé en Go . 🎯 Contexte du projet Vous rejoignez une équipe backend sur des sujets critiques : ➡️ Scalabilité d’une plateforme à fort trafic (millions d’utilisateurs) ➡️ Conception et évolution d’architectures distribuées ➡️ Optimisation des performances et de la résilience ➡️ Participation à des enjeux produits à fort impact business ⚡ Les enjeux Haute volumétrie & forte contrainte de performance Scalabilité horizontale Robustesse & résilience Optimisation des temps de réponse Systèmes distribués
CDI

Offre d'emploi
DevOps SRE Cloud AWS H/F - Paris

Webnet
Publiée le
Ansible
CI/CD
Cloud

73k-80k €
Paris, France
Dans le cadre d'une intégration définitive chez l'un de nos clients, nous sommes à la recherche d'un DevOps Cloud. Vous intégrez l'équipe R&D Cloud, et serez capable de structurer et cadrer l’ensemble des activités CI/CD et observabilité. Le poste combine expertise technique, vision d’architecture et responsabilité opérationnelle. Vous êtes responsable de la fiabilité, de l’automatisation et du maintien en condition opérationnelle des plateformes Cloud. Vous intervenez sur trois axes majeurs : Structuration et fiabilisation des pipelines CI/CD Mise en place et pilotage de la stratégie d’observabilité Support technique avancé et accompagnement des équipes Vous aurez pour missions : CI/CD & Automatisation Mise en place et optimisation des pipelines CI/CD Configuration et maintien des outils TeamCity et Bitbucket Pipelines Création et maintenance des scripts et jobs de déploiement en production Développement et maintenance des scripts Terraform et Ansible Instanciation des composants nécessaires au déploiement des produits Automatisation et fiabilisation des mises en production Observabilité & MCO Définir et cadrer la stratégie d’observabilité Choisir et implémenter la stack (OpenTelemetry, Datadog, Prometheus…) Mettre en place le monitoring, l’alerting et les dashboards Définir les indicateurs de maintien en condition opérationnelle Optimiser les performances, la scalabilité et les coûts Support & Collaboration Support de niveau 3 Accompagnement de l’équipe Digital Services dans le traitement des demandes clients Gestion des accès, certificats et sujets liés à la sécurité Contribution à la stratégie Cloud et aux bonnes pratiques
Freelance

Mission freelance
Ingénieur SRE

TEOLIA CONSULTING
Publiée le
AWS Cloud
DevOps

12 mois
400-550 €
Paris, France
Dans le cadre de la transformation de son système d’information et de l’industrialisation de ses pratiques IT, un acteur majeur du secteur de l’énergie recherche un Ingénieur SRE pour renforcer ses équipes. Le consultant interviendra dans un environnement Agile, au cœur d’un écosystème applicatif critique (B2C / B2B), avec des enjeux forts de fiabilité, performance et scalabilité des services . Missions Concevoir, développer et maintenir des systèmes fiables, performants et évolutifs Collaborer avec les équipes de développement pour intégrer les principes SRE dès la conception Assurer la disponibilité, la performance et la résilience des applications en production Mettre en place des mécanismes de monitoring et d’alerting proactifs Participer à la gestion et à la résolution des incidents critiques Automatiser les tâches opérationnelles (run, déploiement, exploitation) Contribuer à l’amélioration continue des pratiques SRE et DevOps Maintenir la documentation technique et les bonnes pratiques Environnement technique Cloud : AWS CI/CD : GitHub Actions, pipelines de déploiement Infrastructure as Code : Terraform, Ansible, Puppet Conteneurisation : Docker Monitoring : Dynatrace Systèmes : Linux Architecture : systèmes distribués, haute disponibilité
Freelance

Mission freelance
Architecte technique AWS (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Architecture
AWS Cloud

6 mois
Paris, France
CONTEXTE L’équipe de notre client est actuellement composée : • d’un responsable de l’architecture technique, en charge notamment de la gestion des réseaux et des DNS ; La présente consultation vise à renforcer et sécuriser ces activités, en apportant un soutien opérationnel sur l’activité d’Architecte Technique. OBJECTIFS ATTENDUS Les objectifs sur la mission d’architecture technique sont : • Assurer le rôle de back-up du lead Architecte Technique • Coordonner les actions liées aux choix d’architecture, aux flux réseau, à la validation des documentations techniques (DAT…), aux DNS et certificats • Participer à une démarche d’amélioration continue : o Suivi des prestataires d’hébergement et résolution des problèmes techniques o Revue et mise à jour des procédures d’architecture, d’installation et d’exploitation o Mise à jour des schémas d’infrastructure et des flux o Interface avec les hébergeurs et l’infogérance sur les aspects techniques (architecture, infrastructure, réseau, sécurité) o Maintien de la documentation technique centralisée • Contribuer aux études et projets en collaboration avec les chefs de projet pour la mise en place de nouvelles fonctionnalités, infrastructures, flux réseau… • Pilotage d’un SOC (pour les demandes liées aux Firewall)
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Offre premium
Freelance
CDI

Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE

Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes

1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
Freelance

Mission freelance
Expert Dynatrace SaaS / AWS – Observability & Performance

WIKEYS
Publiée le
AWS Cloud
DevOps
Dynatrace

10 mois
400-550 €
Paris, France
Dans le cadre du renforcement de nos capacités en observabilité et monitoring avancé , nous recherchons un Expert Dynatrace capable d’intervenir sur des environnements cloud AWS en mode SaaS . Vous jouerez un rôle clé dans l’optimisation de la performance applicative, la supervision proactive et l’amélioration continue des systèmes. Responsabilités principales Déployer, configurer et administrer Dynatrace (mode SaaS) Mettre en place des stratégies avancées d’ observability (APM, logs, metrics, traces) Assurer le monitoring de systèmes distribués en environnement AWS (microservices, containers, Kubernetes) Analyser les performances applicatives et identifier les bottlenecks Implémenter des dashboards, alerting intelligent et automatisation Collaborer avec les équipes DevOps, Cloud et développement Participer à l’amélioration continue (SRE, performance engineering) Accompagner les équipes sur les bonnes pratiques (coaching / expertise)
CDI

Offre d'emploi
Tech lead Java angular

CBTW
Publiée le
Angular
AWS Cloud
Java

53k-75k €
Paris, France
Chez CBTW, nous recrutons des collaborateurs qui souhaitent avoir un impact technologique durable à l’échelle globale. Nous concevons, implémentons et opérons des solutions technologiques complexes, en nous appuyant sur : Des expertises internationales, Des Service Lines structurées, Des modèles de delivery industrialisés. Pourquoi nous rejoindre ? Projets variés et ambitieux : cloud distribué, automatisation avancée, infrastructures scalables, observabilité à grande échelle, sécurité cloud. Vision internationale avec opportunités d’évolution dans plusieurs pays. Culture collaborative et apprentissage continu : initiative, partage, montée en compétences. Formations et certifications : AWS, Terraform, Kubernetes, CI/CD, sécurité. Communauté software engineering: experts passionnés, retours d’expérience, labs, partage de bonnes pratiques.
CDI

Offre d'emploi
Lead python - Plateforme - Paris - H/F

EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python

80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
CDI
Freelance

Offre d'emploi
Data Ingénieur

Les Filles et les Garçons de la Tech
Publiée le
AWS Cloud
IA
Kubernetes

6 mois
40k-51k €
450-600 €
Paris, France
Le ou la Data Ingénieur·e IA conçoit, met en place et opère les pipelines de données qui alimentent les cas d’usage d’intelligence artificielle (machine learning, LLM, analytics avancée). Le poste vise à garantir la disponibilité, la qualité, la traçabilité et la performance des données de bout en bout, depuis les sources (SI, APIs, fichiers, logs) jusqu’aux environnements d’entraînement et de production. En lien étroit avec les équipes Data Science, Produit, DevOps et Sécurité, la personne contribue à industrialiser les flux et à fiabiliser l’écosystème data. Livrables Pipelines de données documentés et automatisés, avec contrôles de qualité (validation, déduplication, gestion des valeurs manquantes) et mécanismes de reprise sur incident. Jeux de données prêts pour l’IA (datasets d’entraînement/validation, tables de features, embeddings si nécessaire) et interfaces d’accès stables pour les équipes consommatrices. Tableaux de bord de supervision (fraîcheur, volumes, erreurs, coûts), documentation opérationnelle (runbooks) et contribution aux standards (naming, conventions, modèles) de la plateforme.
CDI

Offre d'emploi
Développeur Python / Appétence DevOps - Télécom - Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
DevOps
Python

45k-53k €
Paris, France
Missions principales Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
Freelance

Mission freelance
ML Engineer senior orienté plateforme / DevOps ML

Trait d'Union
Publiée le
AWS Cloud
Deep Learning
Docker

1 an
400-760 €
Paris, France
Permettre à des chercheurs de tester, entraîner et industrialiser rapidement des modèles de machine learning à grande échelle, dans un environnement hybride : neocloud pour la recherche AWS (MLOps / prod) Gérer des entraînements de modèles à grande échelle (GPU / distribué) Assurer la reproductibilité des expériences Optimiser les ressources (GPU, compute) Créer des outils internes pour la recherche ML Faire le lien entre recherche académique ↔ production industrielle Avoir déjà travaillé : soit dans une boîte très technique (type scale-up / deeptech) soit dans un environnement de recherche / labo Parler Anglais
Freelance
CDI

Offre d'emploi
Senior Python Developer

VISIAN
Publiée le
API
AWS Cloud
PostgreSQL

1 an
Paris, France
Missions En tant que Développeur Python Senior, vous serez amené(e) à : Concevoir et implémenter des services backend en Python pour la gestion des actifs, des contrats et des opérations de marché. Développer des API et des pipelines de données pour intégrer les composants applicatifs à l'écosystème d'information global, incluant les applications internes et externes, le hub de données, les autres systèmes de stockage de données et les consommateurs de données. Intégrer des systèmes de messagerie (MQTT, RabbitMQ) pour l'ingestion de données en temps réel. Utiliser PostgreSQL pour la modélisation, l'optimisation et l'intégrité des données relationnelles et de séries temporelles. Exploiter les services AWS tels que RDS, S3, IAM, Lambda, ECS et Docker. Collaborer avec les chefs de produit et les experts métier pour traduire les besoins métier en fonctionnalités logicielles évolutives. Contribuer aux processus de développement agile, notamment la planification des sprints, les rétrospectives et la coordination d'équipe. Participer au processus de mise en production toutes les deux semaines. Assurer le support de niveau 2 sur les applications existantes et sur les mises en production dédiées. Assurer le développement logiciel, le suivi et la mise en œuvre des correctifs, évolutions et adaptations. Fournir des solutions correctives ou des solutions de contournement selon les besoins. Compétences techniques Plus de 6 ans d'expérience en développement Python (développement d'applications). Maîtrise de PostgreSQL, notamment la conception de schémas, l'optimisation des performances et la gestion des données de séries temporelles. Expérience des services AWS (RDS, S3, IAM, ECS, Docker). Expérience des API, des pipelines de données, du streaming et autres paradigmes d'intégration de systèmes. Familiarité avec les méthodes agiles et les environnements de développement collaboratif. Les plus : Expérience avec React ou en développement front-end. Expérience avec FastAPI ou des alternatives (par exemple, Flask, Django). Familiarité avec l'orchestration de conteneurs ou les pipelines CI/CD. Outils et environnement Python PostgreSQL AWS (RDS, S3, IAM, Lambda, ECS) Docker Systèmes de messagerie : MQTT, RabbitMQ Méthodologies agiles
Freelance

Mission freelance
Expert Collibra technico-fonctionnel

Inventiv IT
Publiée le
Agile Scrum
AWS Cloud
Collibra

5 mois
660-720 €
Paris, France
Nous recherchons un expert Collibra technico-fonctionnel avec plus de 15 ans d'expérience dans le cadre d'une mission au forfait avec engagement de résultat sur une période de 5 mois. Dans un contexte groupe avec un socle Data existant, une dizaine de direction métiers et un outil Collibra mise en place. Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Profil recherché Expérience (15 ans d'expériences minimum) Minimum 10 ans d’expérience data Minimum 4 ans en Data Governance Expérience significative sur Collibra (implémentation et exploitation) Mise en place de workflows automatisés (au moins 2) Expérience d’intégration avec des SI (connecteurs, APIs…) Compétences techniques Collibra (configuration, workflows, administration) Data Governance & Data Catalog Data Engineering / BI / Data Management Environnements : Databricks, AWS, outils de metadata (Collate…) Méthodologies Agile (Scrum) Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Soft skills Autonomie et rigueur Capacité d’analyse et de proposition Excellentes compétences en communication Capacité à interagir avec des profils techniques et métiers Organisation & environnement Encadrement : Product Owner Data Catalog Interaction avec équipes Data (DSI, Data Factory) Mode de travail hybride : Non négociable 3 jours/semaine sur site (Paris) 2 jours/semaine en télétravail Entretien technique en présentiel à Paris Modalités Mission au forfait avec engagement de résultat Suivi mensuel via livrables et compte-rendu d’activité Validation régulière en COPIL
CDI
Freelance

Offre d'emploi
Data intégration Senior (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
CDI
Freelance

Offre d'emploi
IAM Architect / Wallix

VISIAN
Publiée le
AWS Cloud
cyberark
IAM

1 an
Paris, France
Missions Expertise Technique : Agir en tant qu'autorité technique sur les plateformes CyberArk et Wallix, en pilotant leur conception, leur intégration et leur amélioration continue au sein de l'écosystème. Collaboration Opérationnelle : Collaborer étroitement avec l'équipe des Opérations (RUN) et le Service Management Office (SMO) pour garantir des services IAM sécurisés, évolutifs et performants. Architecture et Design : Challenger et concevoir les architectures existantes de gouvernance d'identité et d'authentification. Développement de Workflows : Concevoir et développer des workflows alignés sur les besoins métiers tout en garantissant la conformité avec les politiques du Groupe. Solutions IT/OT : Concevoir, architecturer et déployer les solutions CyberArk et Wallix pour les cas d'usage IT et OT (technologies opérationnelles). Gestion de Projets : Piloter les projets techniques liés à l'évolution de l'IAM (nouveaux cas d'usage, migrations, intégrations et durcissement de la sécurité). Politiques de Sécurité : Définir et faire appliquer les politiques de sécurité IAM pour CyberArk et Wallix, en assurant la conformité avec les standards de cybersécurité et les exigences réglementaires. Gestion des Risques : Identifier, évaluer et atténuer les risques liés à l'identité numérique, aux accès privilégiés et aux flux d'authentification. Maintien de la Posture de Sécurité : Assurer la sécurité des plateformes CyberArk et Wallix via des audits réguliers, des évaluations de vulnérabilités et l'alignement avec la feuille de route sécurité du Groupe. Automatisation : Automatiser les workflows IAM à l'aide d'outils de scripting et d'Infrastructure-as-Code (IaC) pour améliorer l'efficacité opérationnelle. Innovation et Provisioning : Impulser l'innovation dans les processus de self-service et de provisioning, en intégrant CyberArk et Wallix avec l'ITSM du Groupe. Pilotage de la Performance : Collaborer avec le SMO pour définir les KPI, les SLA et les initiatives d'amélioration continue. Documentation : Maintenir à jour la documentation technique (schémas d'architecture, run-books, procédures SOP) et assurer le transfert de connaissances vers l'équipe opérationnelle. Communication : Communiquer de manière claire et efficace les mises à jour IAM, les risques et les recommandations techniques aux parties prenantes (HUBs, GBUs, partenaires externes). Mentorat : Fournir des conseils techniques et du mentorat aux ingénieurs juniors, aux équipes opérationnelles et aux partenaires transverses. Gouvernance : Participer aux comités de revue d'architecture pour challenger et valider les designs proposés. Cohésion de Service : Favoriser la collaboration entre l'ingénierie, les opérations et les unités métiers pour assurer une prestation de service cohérente.

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

138 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous