Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 636 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer (AWS / Databricks)

Hito
Publiée le
AWS Cloud
Databricks
Python

3 ans
40k-45k €
500-750 €
Tokyo, Japon
Pour le compte d’un de nos clients, nous recherchons un Data Engineer AWS motivé pour s’installer au Japon (Tokyo) afin de participer à la construction d’une nouvelle plateforme data. Missions : Dans le cadre de la mise en place d’un Data Hub, vous interviendrez notamment sur : - La construction de pipelines de données - L’intégration et la consolidation de données provenant de différents systèmes - Le mapping des flux de données entre systèmes sources et systèmes downstream - Le nettoyage et la fiabilisation des données - La mise à disposition des données pour des outils d’analyse et de reporting - Les échanges avec les équipes métier afin de comprendre les besoins data Stack technique - AWS - Databricks - Python - ECS - CI / CD - Outils de dataviz (type Tableau) Profil recherché - Expérience solide en Data Engineering - Très bonne maîtrise AWS - Expérience Databricks - Bonne compréhension des architectures data et pipelines Langues - Japonais requis (JLPT N2 dans l'idéal) pour échanger avec les équipes locales - OU Anglais professionnel/bilingue si tout est validé par le client pour la technique Organisation - Poste basé à Tokyo - Présence sur site 2 jours par semaine
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
CDI

Offre d'emploi
DevOps AWS H/F

DAVRICOURT
Publiée le
DevOps

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
Freelance

Mission freelance
Expert Datadog

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes

3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
CDI
Freelance

Offre d'emploi
AWS Platform Engineer

Ela Technology
Publiée le
AWS Cloud
Méthode Agile

6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
CDI

Offre d'emploi
Lead Developer Node.js / AWS

Recrut Info
Publiée le
AWS Cloud
Node.js

52k-72k €
69009, Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Montpellier

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Montpellier, Occitanie
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance
CDI

Offre d'emploi
Senior DevOps AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Freelance

Mission freelance
Tech Lead Data (AWS/BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud

8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Freelance
CDI

Offre d'emploi
Lead Développeur Java/AWS

VISIAN
Publiée le
AWS Cloud
AWS Cloudwatch
GraphQL

3 ans
Paris, France
Tâches principales Analyse un besoin et modélise une application informatique Développe une application informatique Met en place l'intégration continue Maintenir et faire évoluer l'application Gère un projet de développement informatique Tâches supplémentaires Forme les utilisateurs Participe à la production Soutient la recette et traite les retours de recette Fournit un support client Compétences appréciées Familiarity with PostgreSQL Knowledge of CI/CD pipelines, monitoring, and logging in cloud-native environments Kubernetes
CDI
Freelance

Offre d'emploi
Architecte Technique (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre du renforcement d’une direction IT d’un grand acteur de la protection sociale, nous recherchons une(e) Architectes Techniques confirmés pour intervenir sur des projets stratégiques (applicatif, IT4IT, RUN Architecture). Missions : Définir et concevoir des architectures techniques et infrastructures Garantir le respect des standards et bonnes pratiques Proposer des solutions robustes, performantes et sécurisées Participer aux études, POC et choix technologiques Contribuer aux comités et à la gouvernance d’architecture Support ponctuel niveau 3 sur incidents complexes Compétences techniques: AWS, VMware (VCF), environnements hybrides Architectures distribuées & infrastructures (réseau, stockage, sécurité…) CI/CD, automatisation, Infrastructure as Code Conteneurs / Kubernetes appréciés
Freelance

Mission freelance
DevSecOps Cloud AWS (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
DevOps

2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
Freelance

Mission freelance
CONSULTANT OBSERVABILITE DATADOG

PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes

12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

636 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous