Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon Elastic Compute Cloud (EC2) à Paris
Votre recherche renvoie 8 résultats.
Mission freelance
Architecte Cloud Senior
NEXORIS
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
Gitlab
1 an
400-600 €
Paris, France
Notre client, acteur majeur du secteur bancaire, recherche un Architecte Cloud Senior (H/F) dans le cadre d'une longue mission. Conception et implémentation de services managés sur AWS et GCP au sein d'une plateforme d'hébergement et d'exploitation des applications. Extension des landing zone public cloud permettant le déploiement de services IaaS, PaaS et CaaS conformes aux normes de sécurité en vigueur (AMI sécurisées, remontée au SOC, observabilité, gestion des cycles de vie). Travaux à réaliser : - Porter et piloter la vision d'architecture des offres Cloud - Concevoir et définir l'architecture des services managés (compute, stockage, bases de données, conteneurs) sur AWS et GCP - Analyser les besoins et définir le catalogue de services managés cloud - Superviser l'implémentation et l'industrialisation des services managés - Accompagner les équipes dans l'adoption et l'utilisation des services managés - Définir et superviser les processus de gestion du cycle de vie des services - Assurer l'intégration avec les outils d'observabilité, monitoring et SOC - Analyser les performances et proposer des optimisations techniques Livrables : - High level design - Documents d'architecture techniques / Architecture Decision Records - Mise à jour des normes & standards techniques si requis - Supports de présentations - Plans de tests techniques - Comptes-rendus techniques d'ateliers
Offre premium
Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE
Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes
1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
Offre d'emploi
Lead Developer Java - Spring Boot & AWS
KLETA
Publiée le
AWS Cloud
Java
Springboot
3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS
KLETA
Publiée le
AWS Cloud
Java
Springboot
3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Mission freelance
Développeur Full Stack orienté Frontend (React / Data Applications)
█ █ █ █ █ █ █
Publiée le
DevOps
Docker
Javascript
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Expert tests de performance
CAT-AMANIA
Publiée le
JMeter
Performance testing
6 mois
400-700 €
Paris, France
Votre rôle et vos principales missions En tant que Consultant Test de Performance vous serez en charge du cadrage et de l’exécution des tests de performance. Responsabilités principales Assurer le pilotage complet et la réalisation opérationnelle des tests de performance et de charge, depuis la phase de cadrage (stratégie, périmètre, exigences, architecture cible) jusqu’à l’exécution (scripts, campagnes, analyses, recommandations). 1. Cadrage - Définition et préparation des tests de performance Objectifs : Garantir un cadrage clair, complet et industrialisable des campagnes de tests de performance, en alignement avec : · les enjeux métier (SLA, coûts, criticité) · les contraintes techniques (architecture, volumétrie, sécurité) · les objectifs de performance (latence, throughput, capacité, endurance, robustesse) Responsabilités clés 1.1. Analyse du besoin et des exigences · Recueillir les besoins métier et techniques auprès des PO, architectes, équipes projets. · Identifier les objectifs : seuils de charge, scénarios critiques, SLA, KPI. · Étudier le fonctionnement applicatif et les flux techniques (IHM, API, batch). 1.2. Analyse d’architecture · Examiner l’architecture technique, logicielle et cloud · Identifier les composants sensibles : bases de données, middleware, frontaux, bus, API gateways, queues. · Proposer si besoin des évolutions ou optimisations préalables à la campagne. 1.3. Définition de la stratégie de test · Définir les types de tests : charge stress / limites endurance / vieillissement tests aux pics robustesse / défaillance · Déterminer les environnements nécessaires et leurs prérequis. · Proposer des outils adaptés : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center. 1.4. Élaboration des plans de tests · Conception détaillée des scénarios utilisateurs simulés. · Définition du pacing, des répartitions, des montées en charge, des jeux de données. · Spécification des métriques collectées : applicatives (logs, APM, temps de réponse) systèmes (CPU, I/O, mémoire, réseau) infrastructure (monitoring cloud / on-prem) 1.5. Organisation & pilotage · Planification des campagnes. · Coordination avec les équipes Dev / Ops / Réseau / Infra. · Animation des ateliers de cadrage et réunions clés. 2. Exécution — Réalisation opérationnelle des tests de performance Objectifs : Construire, exécuter et analyser les tests de performance afin de : · valider les exigences de charge · détecter les bottlenecks · sécuriser les mises en production · recommander des optimisations techniques Responsabilités clés 2.1. Préparation de l’environnement · Vérification de la conformité des environnements (volumétrie, monitoring, données) · Mise en place ou adaptation de la collecte des métriques 2.2. Conception et réalisation des scripts · Développement de scripts de charge (Web, API REST, Webservices, message brokers — Kafka, MQ…). · Gestion des corrélations, paramètres, jeux de données, injections massives. · Validation technique des scripts avec les équipes applicatives. 2.3. Exécution des campagnes · Lancements contrôlés et pilotés des tests. · Gestion du Run : incidents, ajustement de charge, redémarrages, validations. · Réalisation de campagnes répétées selon besoin (1 à 2 campagnes / semaine, selon contexte). 2.4. Analyse et diagnostic · Analyse des résultats : temps de réponse taux d’erreur saturation CPU/RAM/I/O comportement des backend et middleware · Identification des goulots d'étranglement et points de contention. · Propositions de solutions correctives : dimensionnement, tuning (BD, JVM, Kafka, API), optimisation réseau, configuration AWS. 2.5. Reporting & restitution · Reporting journalier/hebdomadaire. · Rédaction de rapports de test de performance : synthèse exécutive détails techniques recommandations · Présentation aux équipes projet et au management. 3. Compétences clés attendues Techniques · Outils de performance : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center · APM / Observabilité : Grafana, Kibana, Elastic Stack, Dynatrace, AppDynamics · Architectures cloud AWS : EC2, ECS/ECR, Lambda, VPC, WAF, CloudWatch, autoscaling · Architectures microservices : Kafka, API Gateway, Tomcat, PostgreSQL, Oracle… · Scripting : Python, Shell, Java / Scala · CI/CD : Jenkins, XLD/XLR, Terraform/Terragrunt Méthodologies · Agile (Scrum/Kanban) · Cycle en V · Stratégie de test · Cadrage & AMOA technique Soft skills · Capacité de pilotage · Aptitude à vulgariser les résultats techniques · Communication transverse (Dev, Ops, Réseau, Métier) · Analyse & diagnostic 4. Livrables attendus Volet Cadrage · Stratégie de tests de performance · Plans de tests détaillés · Dossier d’architecture testée · Planning des campagnes · Environnement prêt à l'exécution Volet Exécution · Scripts de test · Rapports d’exécution de campagne · Analyses détaillées et synthèses exécutives · Recommandations & plan d’action · Contribution à l’amélioration continue Environnement & outils · Jira, Confluence, Xray · Cucumber, BDD, Gherkin, Vulcain (outil interne) 🎯Votre profil Formation : Bac+5 - Master avec une spécialisation dans un secteur technique ou commercial ou un équivalent avec une école spécialisée. Expérience : · Entre 8 et 10 ans d’expérience en test de perforamnce · Votre maîtrise des standards ISTQB, votre capacité à structurer des processus robustes et votre aisance à collaborer avec des équipes pluridisciplinaires font de vous un véritable référent qualité. · Vous savez allier vision stratégique et opérationnalité, tout en accompagnant les équipes vers des pratiques plus matures. · Solide expérience du travail en environnement transverse, avec une capacité démontrée à mobiliser et influencer les équipes par l’impact et la collaboration. Langues : Français courant (C2), Anglais professionnel (B2-C1)
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
8 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois