Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon Elastic Compute Cloud (EC2)
Votre recherche renvoie 41 résultats.
Offre d'emploi
Tech Lead Java DevOps AWS
ASTRELYA
Publiée le
AWS Cloud
Java
Springboot
Hauts-de-Seine, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Dans le cadre de notre développement, nous recherchons pour un client tertiaire un Tech Lead Java DevOps AWS (H/F). Votre mission : Participation à un programme stratégique de refonte d’une plateforme BtoC à l’échelle internationale Environnement Agile Scrum, collaboratif et multiculturel Objectif : concevoir des solutions cloud innovantes, performantes et hautement scalables sur AWS Mise en œuvre des meilleures pratiques DevOps et CI/CD Concrètement, vous allez : Concevoir et développer des applications Java robustes et performantes Mettre en place des architectures microservices cloud-native sur AWS Contribuer activement au développement : codage revues de code tests optimisation des performances Définir, promouvoir et appliquer les bonnes pratiques en matière de développement, qualité et sécurité Encadrer et accompagner les développeurs Collaborer étroitement avec les équipes produit, architecture et data à l’international Votre futur environnement technique : Langages & frameworks : Java , Spring Boot Cloud & infrastructure : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & services : microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & sécurité : Datadog, Prisma Cloud Outils collaboratifs : Jira, Confluence Qui êtes-vous ? Ingénieur de formation ou équivalent Minimum 10 ans d’expérience Au moins 5 ans d’expérience sur des environnements DevOps / AWS Au moins 4 ans d’expérience en tant que Tech Lead Expérience confirmée en Agile Scrum et sur des projets internationaux Goût prononcé pour le partage de connaissances et l’amélioration continue Leadership et capacité à fédérer une équipe Sens de l’écoute et compréhension des enjeux techniques et métiers Communication claire et capacité à vulgariser des sujets complexes Esprit collaboratif et aisance dans un environnement multiculturel Proactivité, adaptabilité et sens de l’anticipation Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#TechLead#Java#AWS
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Mission freelance
Développeur Python / Full‑Stack orienté AWS
Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python
3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Mission freelance
DevOps / SysOps (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
DevOps
Terraform
12 mois
400-450 €
Nice, Provence-Alpes-Côte d'Azur
Contexte Rattaché au Responsable Infrastructure, le consultant accompagnera notre programme Move to Cloud en pilotant la construction de nouvelles solutions via l'Infrastructure as Code (Terraform) afin d'industrialiser et d'accélérer nos déploiements. Une présence sur site est requise, avec la possibilité de 2 jours de télétravail par semaine. Le candidat doit résider dans les Alpes-Maritimes. Un niveau d’anglais courant est indispensable afin d’assurer les escalades L3 et le support auprès de nos équipes IT internationales. Missions principales Administration et optimisation de notre infrastructure actuelle AWS (EC2, S3, FSx, DS, Storage Gateway) Déploiement et gestion d’infrastructure via Terraform Mise en place du monitoring datadog Optimisation des coûts AWS via la mise en œuvre de bonnes pratiques FinOps Automatisation des déploiements et standardisation des environnements Support N2/N3, gestion d’incidents complexes et contribution aux projets d’évolution Création et maintien d’une documentation complète (architecture, processus de déploiement, procédures opérationnelles) Partager les connaissances et les meilleures pratiques afin de favoriser une culture d’amélioration continue au sein de l’équipe Missions complémentaires Virtualisation : Administration d'environnements virtualisés VMware/Nutanix Data Protection & Identity : Gestion de l'Active Directory et d'une solution de sauvegarde
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
DBA expérimenté SQL / Mongo DB/ AWS (H/F)
ADSearch
Publiée le
AWS Cloud
Mongodb
SQL
3 mois
Île-de-France, France
Contexte du poste Dans le cadre du renforcement de son équipe technique, notre client recherche un DBA expérimenté capable de gérer, sécuriser et optimiser des bases de données relationnelles (SQL) et NoSQL (MongoDB) dans un environnement cloud AWS à forte volumétrie et criticité. Missions principalesAdministration & exploitation Administrer et maintenir les bases de données SQL (MySQL, PostgreSQL, SQL Server, Oracle…) et MongoDB Assurer la disponibilité , la performance et la fiabilité des bases de données Mettre en œuvre les stratégies de sauvegarde, restauration et PRA Gérer les montées de version, patchs et migrations Performance & optimisation Analyser et optimiser les requêtes SQL et les index Surveiller les performances et anticiper les problèmes de capacité Mettre en place des mécanismes de scalabilité (replication, sharding, clustering) Sécurité & conformité Gérer les droits d’accès, rôles et politiques de sécurité Mettre en œuvre le chiffrement des données (at rest / in transit) Garantir la conformité aux bonnes pratiques (RGPD, sécurité cloud) Cloud & DevOps (AWS) Administrer les services AWS liés aux bases de données : RDS, Aurora, DynamoDB, EC2, S3 Automatiser les déploiements et la supervision (Terraform, CloudFormation, scripts) Collaborer avec les équipes DevOps et applicatives Collaboration & support Accompagner les équipes de développement (conseils schéma, requêtes, bonnes pratiques) Participer aux revues techniques et à l’amélioration continue Rédiger la documentation technique Compétences techniques requisesBases de données Excellente maîtrise d’au moins un SGBD SQL Très bonne connaissance de MongoDB Concepts avancés : réplication, haute disponibilité, partitionnement Cloud & outils Solide expérience sur AWS Supervision : CloudWatch, Prometheus, Grafana (ou équivalents) Scripting : Bash, Python Outils CI/CD et Infrastructure as Code appréciés
Mission freelance
Tech Lead SAP BC H/F
HAYS France
Publiée le
Management
Run
SAP ABAP
6 mois
Hauts-de-Seine, France
Nous recherchons pour le compte de notre client un Tech Lead SAP BC H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Notre client propose 2 jours de télétravail maximum par semaine. Objectif de la mission : gérer le paysage SAP à la fois en RUN et en mode projet, et sécuriser les activités Basis et techniques. Responsabilités : Management d’une équipe technique composée de développeurs ABAP (2–3) et de ressources Basis (2–3). Solution Design & Architecture Définir et valider les architectures SAP afin de répondre aux besoins métiers tout en respectant les standards de l’entreprise et les bonnes pratiques. Gérer les problématiques d’intégration avec le SI (SSO, provisioning utilisateurs, scheduling, schémas d’intégration/extraction) et garantir une solution stable, standardisée et scalable. Leadership technique Accompagner et guider l’équipe de développement afin d’assurer la qualité et l’homogénéité des livrables techniques. Organiser les activités de l’équipe de développement pour garantir la livraison des développements internes. Assurer les revues de code et le contrôle qualité des sous‑traitants externes : vérifier la conformité aux standards et optimiser les performances. Support à la gestion de projet Collaborer avec les chefs de projet pour estimer les charges, planifier les ressources et suivre l’avancement sous l’angle technique. Agir comme principal référent technique auprès des métiers, des équipes fonctionnelles et des partenaires externes. Gestion des releases Proposer et organiser les activités et outils nécessaires à la gestion des ordres de transport pour les équipes RUN et projet, en assurant la cohérence système et version. Monitoring, support & amélioration continue Assurer un suivi hebdomadaire avec SAP ECS (solution en RISE private cloud). Organiser les opérations techniques (cutover, application de Support Packages). Superviser la stabilité opérationnelle des systèmes SAP et garantir les activités de support et de maintenance pour maintenir les systèmes en conditions opérationnelles. Suivre les actions techniques et de sécurité sur la plateforme SAP (déploiement Fiori, package SAP GUI, correctifs de sécurité) et superviser les actions de l’intégrateur. Recommander et mettre en œuvre des améliorations sur les processus, outils et méthodologies SAP. Résolution d’incidents Diagnostiquer et résoudre les incidents techniques complexes, en apportant une expertise avancée à l’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
41 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois