Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Paris

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 181 résultats.
Freelance
CDI

Offre d'emploi
DevOps AWS (H/F)

Linkup Partner
Publiée le
AWS Cloud

12 mois
53k-65k €
520-640 €
Paris, France
Nous recherchons un Ingénieur DevOps AWS expérimenté pour rejoindre notre équipe et contribuer à des environnements où la disponibilité et la performance sont très importantes. Vos missions : Déployer et maintenir des infrastructures cloud résilientes et sécurisées. Automatiser les processus de déploiement et de gestion d’infrastructure. Participer à l’architecture et à l’optimisation d’applications microservices et serverless sur AWS. Assurer la surveillance, la disponibilité et la performance des systèmes. Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Senior AWS

VISIAN
Publiée le
AWS Cloud
DevOps
Terraform

1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
Freelance

Mission freelance
Expert Datadog

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes

3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Freelance
CDI

Offre d'emploi
Senior DevOps AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
CDI
Freelance

Offre d'emploi
AWS Platform Engineer

Ela Technology
Publiée le
AWS Cloud
Méthode Agile

6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
Freelance
CDI

Offre d'emploi
Lead Développeur Java/AWS

VISIAN
Publiée le
AWS Cloud
AWS Cloudwatch
GraphQL

3 ans
Paris, France
Tâches principales Analyse un besoin et modélise une application informatique Développe une application informatique Met en place l'intégration continue Maintenir et faire évoluer l'application Gère un projet de développement informatique Tâches supplémentaires Forme les utilisateurs Participe à la production Soutient la recette et traite les retours de recette Fournit un support client Compétences appréciées Familiarity with PostgreSQL Knowledge of CI/CD pipelines, monitoring, and logging in cloud-native environments Kubernetes
CDI
Freelance

Offre d'emploi
Architecte Technique (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre du renforcement d’une direction IT d’un grand acteur de la protection sociale, nous recherchons une(e) Architectes Techniques confirmés pour intervenir sur des projets stratégiques (applicatif, IT4IT, RUN Architecture). Missions : Définir et concevoir des architectures techniques et infrastructures Garantir le respect des standards et bonnes pratiques Proposer des solutions robustes, performantes et sécurisées Participer aux études, POC et choix technologiques Contribuer aux comités et à la gouvernance d’architecture Support ponctuel niveau 3 sur incidents complexes Compétences techniques: AWS, VMware (VCF), environnements hybrides Architectures distribuées & infrastructures (réseau, stockage, sécurité…) CI/CD, automatisation, Infrastructure as Code Conteneurs / Kubernetes appréciés
Freelance

Mission freelance
CONSULTANT OBSERVABILITE DATADOG

PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes

12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Freelance
CDI

Offre d'emploi
Senior Machine Learning Engineer (MLE) - H/F

AMD Blue
Publiée le
AWS Cloud
Machine Learning
PySpark

3 ans
60k-65k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. L'enjeu de 2026 est d'étendre la couverture de ces pipelines de production à de nouvelles zones géographiques mondiales (SEA, LATAM, NA et MEA). Dans ce cadre, nous recherchons un(e) Senior Machine Learning Engineer pour industrialiser, déployer et fiabiliser ces modèles de forecast à grande échelle. Descriptif de la mission : Les missions sont : Industrialisation et déploiement : Transformer les prototypes Data Science en pipelines robustes, orchestrer la mise en production et optimiser les performances de run. MLOps & Robustesse : Renforcer la CI/CD ML, versionner les modèles/datasets et implémenter le monitoring (drift, stabilité). Collaboration technique : Challenger la conception des modèles pour faciliter l'industrialisation et améliorer la qualité du code (structure, tests). Scalabilité internationale : Adapter les pipelines pour supporter de fortes volumétries multi-régions. Coordination : Structurer et prioriser les activités de Run & Stabilisation dans un environnement Agile (Scrum).
Freelance

Mission freelance
Expert observabilité datadog

Cherry Pick
Publiée le
AWS Cloud
Datadog

12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Freelance

Mission freelance
INGÉNIEUR DATA – DATABRICKS & AWS - DEMARRAGE LUNDI

LINKWAY
Publiée le
Amazon S3
AWS Cloudwatch
AWS Glue

9 mois
450-550 €
Paris, France
MISSION GLOBALE : Rattaché à la direction Data/Analytics, vous concevez, industrialisez et opérez des pipelines à l’échelle sur Databricks intégrés à l’écosystème AWS pour accélérer les cas d’usage data du secteur de l’énergie. Vous mettez en œuvre des traitements batch et streaming avec Spark , Delta Lake et Delta Live Tables , structurez des zones Bronze/Silver/Gold et garantissez qualité, sécurité et gouvernance via Unity Catalog, IAM et Lake Formation . Vous orchestrez l’ingestion depuis S3 , bases et API/IoT, optimisez coûts et performances ( FinOps ) et mettez en place CI/CD , tests et observabilité . En étroite collaboration avec les Data Scientists/Analysts, vous industrialisez des modèles et fonctionnalités MLOps avec MLflow pour des usages tels que prévision consommation/production , optimisation réseau , maintenance prédictive IoT et reporting quasi-temps réel . Vous contribuez aux standards d’ingénierie, à la documentation, au mentoring et à la fiabilité opérationnelle de la plateforme. TÂCHES ET RESPONSABILITÉS PRINCIPALES : • Concevoir, développer et opérer des pipelines sur Databricks (batch et streaming) • Modéliser les données Delta Lake et structurer les zones Bronze/Silver/Gold • Intégrer l’écosystème AWS : S3, Glue, EMR, Lambda, Step Functions, Lake Formation • Assurer qualité, sécurité et gouvernance avec Unity Catalog et IAM • Mettre en place CI/CD, tests et observabilité : optimiser coûts et performances • Orchestrer les workflows (Databricks Workflows, Airflow, Step Functions/ADF) • Industrialiser MLOps avec MLflow en lien avec les Data Scientists • Optimiser les jobs Spark (partitionnement, Z-Ordering, AQE, caching) • Gérer environnements, secrets, artefacts et conformité sécurité • Collaborer avec métiers et data teams pour cadrer et livrer les use cases énergie LIVRABLES CLÉS : • Pipelines Databricks prêts production : traitements batch/streaming robustes et monitorés • Modèle de données Delta Lake : zones Bronze/Silver/Gold documentées et versionnées • Intégrations AWS opérationnelles : S3, Glue Catalog, EMR/Lambda, Lake Formation/IAM • Cadre CI/CD et tests : pipelines de déploiement, validations data et qualité automatisées • Observabilité et FinOps : métriques, alerting, SLO et optimisation des coûts • Chaînes d’orchestration fiables : Databricks Workflows/Airflow/Step Functions prêtes • Capacités MLOps avec MLflow : traçabilité, registry modèles et déploiements contrôlés • Documentation et standards : runbooks, guides d’architecture et bonnes pratiques

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

181 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous