Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Mission freelance
AWS Cloud Engineer – Luxembourg
Details de la Mission : Vous interviendrez sur la gestion et l’optimisation de l’environnement AWS Cloud. Votre rôle consistera à garantir la performance, la stabilité et la scalabilité des infrastructures cloud. Vous participerez également à la mise en place de solutions d’automatisation , à la supervision des environnements , ainsi qu’à l’ amélioration continue des processus DevOps . Compétences requises Expertise confirmée sur AWS (EC2, S3, Lambda, CloudFormation, IAM, etc.) Expérience significative en gestion et optimisation d’infrastructures Cloud Connaissance des bonnes pratiques DevOps Bon niveau d’anglais (environnement international)
Mission freelance
[LFR] Expert DevSecOps AWS à Paris - 982
Compétences techniques clés (obligatoires) : Python (5 ans minimum) : développement de scripts, automatisation, tests unitaires. AWS CloudFormation (5 ans minimum) : création et gestion d’infrastructures as code. AWS (3 ans minimum) : expérience concrète avec les services AWS (IAM, EC2, S3, Lambda, etc.). Terraform (3 ans minimum) : bien que secondaire, cette compétence est utile pour comparer ou migrer des configurations. CI/CD & DevSecOps : pipelines automatisés, intégration de la sécurité dans le cycle de développement. Tests unitaires et revues de code (PR reviews) : bonne pratique agile. Compétences méthodologiques : Agilité (Scrum) : travail en sprints, livrables réguliers, collaboration en équipe. Documentation & Design technique : capacité à formaliser les besoins et les solutions. Soft skills & environnement : Anglais courant : environnement international. Travail hybride : capacité à travailler en autonomie et en équipe, présence requise certains jours. Capacité à passer un test technique : autonomie, rigueur, expertise réelle. Un développeur ou ingénieur cloud senior, avec une forte expertise en infrastructure as code sur AWS, capable de concevoir, développer et tester des solutions dans un environnement agile et sécurisé.
Offre d'emploi
DevOps AWS (H/F)
Dans le cadre du renforcement d'une équipe dans le secteur de l'énergie, nous recherchons un(e) Ingénieur DevOps spécialisé AWS . Missions principales Concevoir, déployer et maintenir des architectures Cloud AWS (EC2, ECS, RDS, Lambda, etc.) Mettre en place et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.) Automatiser les déploiements avec des outils comme Terraform , CloudFormation ou Ansible Superviser les environnements de production et staging (monitoring, alerting, logs) Gérer les problématiques de scalabilité, sécurité, résilience et performance Optimiser les coûts d'infrastructure AWS Collaborer avec les équipes de développement et produit dans un contexte Agile Garantir la haute disponibilité et la sécurité des services Stack technique Cloud : AWS (EC2, ECS/Fargate, S3, RDS, Lambda, CloudWatch, IAM, Route 53, etc.) Infra as Code : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker, (Kubernetes ou ECS) Observabilité : Prometheus, Grafana, ELK, Datadog, CloudWatch Scripting : Bash, Python Sécurité : IAM, Secrets Manager, contrôle des accès, best practices AWS
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Offre d'emploi
Data Engineer - Java/ Spark
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Offre d'emploi
Expert DevOps / CI-CD AWS (H/F)
L’application GPS , basée sur le progiciel Planisware , est un outil métier stratégique utilisé pour la planification des arrêts de tranche, la maintenance et la gestion pluriannuelle du parc. Le client engage la migration de cette application vers AWS et souhaite définir et déployer une chaîne CI/CD moderne, sécurisée et automatisée adaptée à cet environnement critique. Winside Lyon recherche un Expert DevOps CI/CD AWS pour accompagner ce programme de transformation à fort impact industriel et stratégique. Missions principales : Le consultant interviendra en tant que référent technique et aura pour responsabilités : 🔧 Conception & Architecture CI/CD Concevoir une architecture d’intégration et de déploiement continu adaptée à Planisware et au Cloud AWS. Définir la stratégie d’automatisation (tests, pipelines, déploiements, sécurité). Formaliser les patterns de déploiement, les standards qualité et conformité. 🚀 Mise en œuvre opérationnelle Construire et configurer les pipelines CI/CD (GitLab CI, Jenkins). Déployer les infrastructures via Terraform, Ansible et CloudFormation. Intégrer les services AWS (ECS, S3, IAM, CloudWatch). 📚 Documentation & Gouvernance Rédiger la documentation technique, la feuille de route d’implémentation, et les guides d’exploitation. Contribuer à la gouvernance Cloud et à la démarche qualité/sécurité (SecDevOps, IAM, traçabilité). 🤝 Collaboration & Pilotage Animer des ateliers techniques avec les équipes projet et métiers. Accompagner les équipes internes dans l’adoption des bonnes pratiques CI/CD. Participer activement aux rituels Agile (daily, sprint review, démonstrations).
Mission freelance
Data Engineer AWS senior
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).
Mission freelance
Intégrateur Cloud H/F
Rattaché(e) à la Direction ARC (Acquisition, Restitution, Corporate) , vous rejoignez l’équipe EIT (Équipe d’Intégration Technique) , sous la responsabilité de son responsable d’équipe. L’équipe EIT intervient sur : L'intégration des éléments d’infrastructure applicative en lien avec les équipes d’exploitation, L’intégration de livrables (éditeurs, maîtrise d’œuvre), Le développement et le support d’outils techniques transverses pour les applications du périmètre DARC. Face à l’augmentation des projets portés sur la Cloud Platform privée, l’équipe se renforce avec un profil spécialisé afin de répondre aux nouveaux enjeux liés au cloud. Missions principales Vous interviendrez sur l’ensemble du cycle de vie des applications déployées sur la Cloud Platform privée, avec une forte dimension technique. Vos activités incluent notamment : 1. Mise en place d’applications sur la Cloud Platform Développement backend avec Spring Boot et Node.js Configuration et gestion d'infrastructure Kubernetes : Rédaction des fichiers de déploiement Instanciation de ressources Mise en place de certificats de sécurité Déploiement de pipelines CI/CD via GitHub Actions Gestion des secrets via Vault Administration des DNS Configuration des load balancers / traffic managers Gestion des buckets S3 Intégration des logs vers des outils de monitoring : Grafana Instana 2. Développement d’interfaces Web Développement front-end et back-end : Technologies : React , Node.js , Spring Boot 3. Suivi et gestion des infrastructures Suivi de la mise en place des composants d’infrastructure des applications Mise en œuvre de la rotation automatisée des artefacts/fonctions : Utilisation de Terraform Création de playbooks et rôles Ansible 4. Développement d’outils transverses pour le pôle CAT Outils de monitoring , alerting , et de gestion des traitements batch Conception et maintenance de solutions transverses à destination des équipes applicatives 5. Participation aux activités opérationnelles Contribution aux opérations de production pilotées par l’équipe EIT Suivi des ressources Azure et documentation via Jira et Confluence
Mission freelance
Data Engineer AWS
Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....
Mission freelance
Mission Freelance – Data Engineer AWS (H/F)
🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.
Mission freelance
DevOps / SysOps confirmé - freelance - Le Havre H/F
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | DevOps / SysOps H/F (freelance). Mode de travail : hybride. Localisation : Le Havre (76). Profil : confirmé. TJ : 600€ à 750€. Date de démarrage : début janvier 2026. Durée : mission très longue (plusieurs années possibles). Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Industrialiser la chaîne de développement à travers la mise en place et l’optimisation de pipelines CI/CD Provisionner des infrastructures Cloud à l’aide de scripts Terraform dans un environnement AWS Assurer la disponibilité, la sécurité et la performance des environnements De contribuer à la standardisation et à la fiabilisation des processus DevOps Concevoir et maintenir des pipelines CI/CD (GitLab CI, Jenkins, etc.) Automatiser la configuration et la gestion des environnements applicatifs L’environnement technique : Expérience confirmée sur un poste DevOps / SysOps (3 à 5 ans minimum) AWS (EC2, S3, RDS, IAM, VPC, CloudWatch, etc.) Terraform (IaC multi-environnements) CI/CD : GitLab CI, Jenkins ou équivalents Scripting : Bash, Python Culture sécurité et automatisation Vous, notre perle rare : Expérience confirmée DevOps / SysOps Autonome, rigoureux(se) et force de proposition Bon communicant, capable de collaborer efficacement à distance Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 600€ à 750€ Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Ingénieur Cloud AWS / Terraform (H/F) – Domaine Spatial – Toulouse
Nous recherchons un(e) Ingénieur(e) Cloud AWS confirmé(e) pour accompagner une mission à fort enjeu autour de la rationalisation et l’optimisation d’infrastructures EKS . L’objectif ? Rendre la plateforme plus performante, plus maintenable, et moins coûteuse — tout en garantissant un haut niveau de sécurité et d’observabilité. Vos missions 🎯 : Vous interviendrez au cœur d’un environnement Cloud complexe, aux côtés d’experts DevOps et réseau, sur trois axes principaux : 1. Rationalisation des clusters EKS - Créer de nouveaux clusters par environnement, de manière automatisée et documentée (Terraform + Terragrunt). - Migrer progressivement les applications existantes en garantissant performance, sécurité et disponibilité. - Optimiser les flux réseaux et la résilience globale des environnements. 2. Amélioration continue de l’Infrastructure as Code - Faire évoluer les modules Terraform (CloudFront, RDS…) pour les aligner sur les standards AWS et internes. - Ajouter ou adapter des fonctionnalités : backups automatiques, gestion dynamique des accès, désactivation d’auto-updates, etc. - Contribuer à la mise à jour des pipelines CI/CD (modules Terraform, déploiements Landing Zone). 3. Support et qualité technique - Traiter les tickets Cloud (Lambdas, Step Functions, pipelines, etc.). - Documenter les bonnes pratiques : normes de nommage, conventions de sécurité, guidelines Terraform. - Participer aux décisions d’architecture et aux revues techniques. Compétences techniques 📋 : - Solide expertise sur AWS Cloud , idéalement avec une certification à la clé. - Très bonne maîtrise de Kubernetes / EKS , du déploiement à l’exploitation. - Compétences confirmées en Terraform et Terragrunt , avec une approche modulaire et scalable. - Bonne culture DevOps : CI/CD (GitLab, Jenkins, GitHub Actions…), automatisation, intégration continue. - Bonnes notions en réseaux Cloud (VPC, routage, sécurité, performances, observabilité). - Maîtrise de Python ou Bash pour les scripts et automatisations. - Connaissance des services AWS tels que RDS, CloudFront, IAM, Lambda, VPC, S3.
Mission freelance
Cloud Security Expert / AWS
Contexte : Renforcement de notre posture de sécurité sur AWS. Services : Formalisation / révision des guides de durcissement de la sécurité pour plusieurs services AWS. Livrables : Formalisation des guides de durcissement de la sécurité pour au moins 8 services AWS, basés sur les exigences de sécurité du Groupe, les exigences de sécurité de l'entité du groupe, et les bonnes pratiques AWS. Services AWS identifiés : Lambda Event Hub CloudWatch EC2 KMS Secret Manager S3 SQS & SNS KMS Secret Manager S3 SQS & SNS KMS Secret Manager
Mission freelance
ALSL - Tech Lead Senior Python / FastAPI / AWS
Dans le cadre d’un programme stratégique de digitalisation et d’outillage décisionnel, notre client recherche un Tech Lead Senior Python pour piloter la conception et la cohérence technique de deux applications web à fort enjeu métier. Ces applications participent à la planification et à l’optimisation d’opérations complexes à l’échelle nationale, intégrant une forte dimension data, cartographique et d’optimisation de scénarios. L’environnement est agile, collaboratif et techniquement exigeant, au cœur d’un projet de transformation numérique d’envergure. Missions : Définir et garantir l’architecture technique du projet Encadrer les développeurs backend et frontend Superviser la qualité, la performance et la documentation du code Piloter les déploiements sur les environnements (dev, recette, prod) Participer à la roadmap technique et aux cérémonies agiles Être moteur sur la veille technologique et l’amélioration continue Assurer la cohérence globale entre les différentes briques applicatives Environnement technique Backend : Python 3.11 FastAPI, SQLAlchemy 2, Pydantic 2, Alembic PostgreSQL 14 + PostGIS DevOps & Cloud : AWS (S3, RDS) Jenkins, Ansible, Helm, Docker, Kubernetes Datadog Outils & Autres : GitLab, Pytest Jira ou équivalent Méthodologie Agile / Scrum
Mission freelance
DBA orienté devops (Ansible, gitlab CI)
Dans le cadre de la modernisation et de l’optimisation d’un système d’information complexe, Notre client, une organisation du secteur culturel et technologique recherche un Ingénieur DevOps / DBA pour renforcer son équipe IT. La mission consiste à : Administrer, exploiter et optimiser les bases de données (PostgreSQL, Vertica, MariaDB, Oracle). Mettre en place et maintenir des environnements Cloud (AWS) et on-premises. Participer au maintien en conditions opérationnelles (MCO) et au Run . Développer et automatiser l’infrastructure (Infrastructure as Code). Garantir la supervision, la sécurité, la haute disponibilité et la continuité de service. Accompagner la montée en compétences des équipes internes et assurer le respect des normes. Stack technique Bases de données : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c Outils DevOps : Docker, Ansible, Git, Terraform, ElasticSearch, Kibana Systèmes & Réseaux : Linux, Réseaux Cloud : AWS (IAM, CloudWatch, CloudTrail, S3, EC2, services Core) Méthodologies : Cycle en V et Agile (Scrum, Kanban
Mission freelance
Consultant intégration qualification CI/CD - DevOps/QA/Dev
Vous rejoignez une équipe en charge des environnements d’intégration et de qualification pour accompagner la livraison et la mise en production d’applications stratégiques. Mission aux côtés du Lead, vous interviendrez comme véritable couteau suisse technique pour assurer le déploiement, l’automatisation et le support aux équipes de développement, QA et production dans un contexte Cloud AWS et CI/CD. Missions Rôle de consultant intégration et qualification CI/CD. Déployer et qualifier les livraisons des développements. Mettre en place et maintenir des tests automatisés sur apps et site web. Maintenir et améliorer les pipelines CI/CD. Étudier et préparer la migration des infrastructures et applications sur le cloud AWS (EKS, S3, CloudFront, ALB, JFrog, …). Automatiser les tâches via scripting. Apporter un support technique aux équipes transverses (développeurs, QA, production, autres équipes). Debug, résolution d’incidents et optimisation Cloud (AWS).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- 𝒯ℰℳ𝒰 Rabattcode [ACV951295]: 20€ Gutscheinpaket für neue Nutzer
- 𝒯ℰℳ𝒰 Gutscheincode [ACV951295] | 20€ Rabatt für Bestandskunden
- 𝒯ℰℳ𝒰 Gutschein: 100€ Rabattcode [ACV951295] für Bestandskunden
- „Aktueller“➛ 𝒯ℰℳ𝒰 Tablet Gratis-Test (ACV951295): Und ein 100 € Rabattcode!
- ❰Aktueller❱➛ 𝒯ℰℳ𝒰 Gutscheincode [ACV951295] 100€ Rabatt für neue Kunden
- factures non payés