Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud à Marseille

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 6 résultats.
CDI

Offre d'emploi
Administrateur DevOps Cloud AWS

CONCRETIO SERVICES
Publiée le
AWS Cloud
DevOps
Jenkins

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte & Environnement Vous rejoignez une équipe de 5 personnes dans un contexte fortement international impliquant de nombreuses collaborations avec des équipes offshore. Ce poste requiert d'excellentes qualités relationnelles et une capacité à communiquer efficacement en français et en anglais, tant à l'écrit qu'à l'oral. Missions Principales – Administrer et maintenir l'infrastructure Cloud AWS (EC2, ECS, S3, IAM, VPC, RDS…) – Concevoir, déployer et optimiser les pipelines CI/CD avec Jenkins – Diagnostiquer et résoudre les incidents liés aux chaînes de livraison continue – Automatiser les déploiements et la configuration des environnements via Ansible – Superviser les conteneurs applicatifs orchestrés sur Amazon ECS – Collaborer étroitement avec les équipes de développement onshore et offshore – Rédiger la documentation technique et les runbooks en français et en anglais – Participer activement aux rituels Agile et aux réunions de pilotage internationales
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
CDI

Offre d'emploi
Responsable Data Platform

Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance

55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Freelance

Mission freelance
SOLUTION ARCHITECT H/F

AXONE BY SYNAPSE
Publiée le
API
ArchiMate
AWS Cloud

3 mois
600 €
Marseille, Provence-Alpes-Côte d'Azur
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Solution Architect H/F confirmé à senior dans un contexte de transformation digitale à l’échelle européenne. La mission consiste à accompagner plusieurs projets en parallèle en définissant des architectures pragmatiques, évolutives et alignées avec les standards globaux. Le consultant interviendra dans un environnement hybride où coexistent solutions locales et plateformes globales, avec un fort enjeu de cohérence, de performance et de rapidité d’exécution. Objectif et livrable: Définition d’architectures applicatives et d’intégration Documentation d’architecture (HLD / LLD) Recommandations techniques et patterns d’intégration Support aux équipes projets Alignement avec les standards globaux Contribution à la scalabilité des solutions Compétences attendues: Architecture applicative et systèmes distribués Cloud computing (Azure, AWS, GCP) Patterns d’intégration (API, microservices) Écosystème Microsoft (Azure, Power Platform) Modélisation d’architecture (C4, UML, Archimate) [Assumé] Connaissances techniques (Java, Python, SQL) Le consultant doit être capable de concevoir des architectures simples et efficaces dans des environnements complexes, tout en évitant le sur-design et en favorisant une approche pragmatique orientée delivery.
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance
CDI

Offre d'emploi
Ingénieur Kubernetes (H/F)

QODEXIA
Publiée le
Ansible
AWS Cloud
Confluence

10 jours
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de l’équipe Container Engineering chez l’un de nos clients grand compte, nous recherchons un Ingénieur Kubernetes confirmé. ⚠ La maîtrise de Kubernetes est obligatoire. Merci de postuler uniquement si vous disposez d’une expérience significative et opérationnelle sur Kubernetes en environnement de production. Compétences requises : Excellente maîtrise de Kubernetes ( impératif ) Outils CI/CD : GitLab, Nexus, Artifactory Automatisation : Terraform, Ansible, scripting Outils de productisation : JIRA, Confluence Environnements Linux : RedHat, Ubuntu Connaissances en développement Compétences AWS appréciées

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

6 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Marseille, Provence-Alpes-Côte d'Azur
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous