Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon Elastic Compute Cloud (EC2)
Votre recherche renvoie 39 résultats.
Mission freelance
[SCH] Expert Elasticsearch – Chartres - 1052
Publiée le
10 mois
500-600 €
Chartres, Centre-Val de Loire
Télétravail partiel
Au sein d’une équipe produit Elasticsearch intégrée à la DSI, vous interviendrez sur la maintenance en conditions opérationnelles (N3), l’évolution des infrastructures et la contribution aux projets techniques transverses. La mission s’inscrit dans un contexte de forte montée en charge et de généralisation des déploiements Elasticsearch au sein du SI. Missions principales : -Contribuer à la généralisation du déploiement des outils Elasticsearch dans les environnements de production. -Participer à l’évolution de l’architecture et de l’infrastructure Elasticsearch (scalabilité, performances, sécurité). -Intégrer les logs applicatifs et systèmes selon les normes ECS (Elastic Common Schema). -Automatiser le déploiement, la configuration et la supervision via Ansible / Python. -Participer au support N3 (diagnostic, résolution d’incidents, performance tuning). -Collaborer avec les équipes applicatives, sécurité et infrastructure dans une approche DevOps. Objectifs & livrables attendus : -Plateforme Elasticsearch stable, performante et conforme aux standards ECS. -Documentation technique (procédures, bonnes pratiques, templates Ansible). -Scripts Python / Ansible pour l’automatisation des déploiements et intégrations. -Contribution active aux projets transverses liés à la supervision et à la gestion des logs. Profil recherché : - >7 ans d’expérience en environnement système / DevOps, dont 3+ ans sur Elasticsearch. -Expertise sur Elasticsearch (installation, configuration, scaling, monitoring). -Pratique confirmée de Linux, Ansible et Python pour l’automatisation. -Connaissance des bonnes pratiques ECS et de l’intégration de logs à grande échelle. -Esprit d’équipe, rigueur et capacité à intervenir dans un contexte critique. -Certification Elasticsearch appréciée.
Offre d'emploi
Analyste Développeur PL/SQL
Publiée le
PL/SQL
24 jours
35k-48k €
340-400 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Dans le cadre du renforcement de l’équipe « Projet » , notre client recherche 1 Analyste Développeur PL/SQL pour participer à l’intégration complète des packages de déploiement destinés à l’exploitation. L’équipe « Projet » (8 personnes) prend en charge l’ensemble du cycle de développement : Compréhension du besoin et rédaction des spécifications techniques Développement et optimisation des bases de données Réalisation et suivi des tests (unitaires, d’intégration) Livraison et transmission des packages à l’équipe d’exploitation Maintenance préventive et corrective des applications Vos missions : Développer et optimiser les applications métiers, interfaces et outils en PL/SQL Maintenir les bases de données Oracle Effectuer les tests unitaires et d’intégration des développements Assurer la qualité et la conformité des livrables par rapport aux spécifications Gérer la maintenance évolutive et corrective des applications Communiquer régulièrement avec des interlocuteurs à l’étranger (20% du temps) Environnement Technique Base de données : Oracle Outils : TOAD, SVN Applications : WMS, ERP, Middleware OpenText (Liaison ECS) Méthodologie : Développement, intégration et maintenance
Mission freelance
228276/Expert Elasticsearch Python, Ansible, Linux à Chartres
Publiée le
Elasticsearch
3 mois
400-600 £GB
Châtres, Nouvelle-Aquitaine
Télétravail partiel
Expert Elasticsearch à Chartres Python, Ansible, Linux La ressource sera intégrée dans une équipe qui assure le support N3, l'évolution des infrastructures et contribuer aux différents projets techniqes et transverses. Intégré à l’équipe produit Elasticsearch, le prestataire aura pour mission de : contribuer à la généralisation du déploiement des outils Elasticsearch dans un contexte de forte évolution de la plateforme contribuer à l’évolution de l’architecture et l’infrastructure de la solution Elasticsearch contribuer aux projets fonctionnels et techniques Compétences demandéesCompétences Niveau de compétence Python Avancé ANSIBLE Avancé normalisation ECS Confirmé Certification Elasticsearch Confirmé intégration de logs Confirmé ELASTICSEARCH Expert LINUX Avancé
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
228276/Expert Elasticsearch à Chartres
Publiée le
Elasticsearch
3 mois
400-600 £GB
Châtres, Nouvelle-Aquitaine
Télétravail partiel
Expert Elasticsearch à Chartres La ressource sera intégrée dans une équipe qui assure le support N3, l'évolution des infrastructures et contribuer aux différents projets techniqes et transverses. Intégré à l’équipe produit Elasticsearch, le prestataire aura pour mission de : contribuer à la généralisation du déploiement des outils Elasticsearch dans un contexte de forte évolution de la plateforme contribuer à l’évolution de l’architecture et l’infrastructure de la solution Elasticsearch contribuer aux projets fonctionnels et techniques Compétences demandées Compétences Niveau de compétence Python Avancé ANSIBLE Avancé normalisation ECS Confirmé Certification Elasticsearch Confirmé intégration de logs Confirmé ELASTICSEARCH Expert LINUX Avancé
Offre d'emploi
Développeur Full Stack PHP / Symfony / React
Publiée le
AWS Cloud
Kubernetes
PHP
1 an
40k-55k €
400-550 €
Île-de-France, France
Télétravail partiel
🚀 Nous recrutons ! – Développeur Full Stack PHP / Symfony / React Vous êtes passionné(e) par le développement et souhaitez rejoindre une équipe agile, innovante et à taille humaine ? Nous avons une opportunité pour vous ! Missions principales Développer et maintenir des fonctionnalités back-end sous PHP (Symfony) Créer et optimiser des interfaces dynamiques avec React / TypeScript Assurer la qualité, performance et sécurité des applications Participer à l’intégration continue et au déploiement automatisé ( CI/CD ) Contribuer à l’architecture logicielle et aux bonnes pratiques de développement Compétences recherchées Langages : PHP 8.2, ReactJS Frameworks : Symfony, Next.js Bases de données : Postgres, SQL Server DevOps / CI/CD : Kubernetes, Docker, GitLab CI/CD, Helm, ArgoCD Cloud : AWS (EC2, RDS, EKS, EFS) Architecture : microservices, APIs REST UX/UI : Responsive Design Les plus Entreprise à taille humaine Participation à des chantiers stratégiques à fort impact utilisateur Télétravail possible après 3 mois ==> Un expérience dans le domaine assurance ou sur des sujets DATA (PowerBI, python, etc.) serait un plus 💡 Intéressé(e) ? Contactez-nous pour en savoir plus ou postuler !
Mission freelance
DevOps Cloud & Réseau AWS
Publiée le
Ansible
Argo CD
AWS Cloud
3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Mission freelance
228276/Expert Elasticsearch à Chartres
Publiée le
Elasticsearch
3 mois
400-600 £GB
Châtres, Nouvelle-Aquitaine
Télétravail partiel
Expert Elasticsearch à Chartres Python, Ansible, Linux La ressource sera intégrée dans une équipe qui assure le support N3, l'évolution des infrastructures et contribuer aux différents projets techniqes et transverses. Intégré à l’équipe produit Elasticsearch, le prestataire aura pour mission de : contribuer à la généralisation du déploiement des outils Elasticsearch dans un contexte de forte évolution de la plateforme contribuer à l’évolution de l’architecture et l’infrastructure de la solution Elasticsearch contribuer aux projets fonctionnels et techniques Compétences demandéesCompétences Niveau de compétence Python Avancé ANSIBLE Avancé normalisation ECS Confirmé Certification Elasticsearch Confirmé intégration de logs Confirmé ELASTICSEARCH Expert LINUX Avancé
Mission freelance
DBA Cassandra Mysql Postgresql
Publiée le
Cassandra
MySQL
6 mois
550-650 €
Saint-Denis, Île-de-France
Télétravail partiel
En tant que DBA de Production spécialisé Cassandra / MySQL / PostgreSQL , vous évoluez dans un environnement moderne, distribué et critique hébergé entièrement sur AWS . Vous êtes responsable de l’exploitation, de la performance et de l’évolution de plusieurs clusters haute disponibilité, tout en participant activement aux projets de modernisation Cloud. Vos missions : Administration / exploitation de clusters Cassandra 4.x (environ 60 nœuds, 10 clusters de production). Administration des environnements MySQL 8.x (réplication avancée, InnoDB Cluster, ou Arbiters AWS). Gestion des clusters PostgreSQL 14/15 en réplication haute disponibilité (Streaming Replication, Patroni, etc.). Supervision avancée : mise en place / optimisation de Prometheus, Grafana, CloudWatch, Alertmanager. Gestion des incidents 24/7 (astreintes), diagnostiques et résolution Niveau 2 & 3. Gestion et automatisation des sauvegardes : pgBackRest, XtraBackup, snapshots AWS, tests de PRA. Rafraîchissement automatisé des environnements hors production (CI/CD, anonymisation, pipelines). Optimisation continue des performances (requêtes, indexation, tuning des clusters, optimisation IO). Documentation technique : normes, procédures, architecture data, runbooks. Projets structurants : Migration complète et modernisation sur AWS : Refonte des architectures Data sur AWS Automatisation via Terraform / Ansible Mise en conformité, durcissement et standardisation des clusters Migration / modernisation des clusters Cassandra 4.x vers des architectures AWS optimisées Contribution aux projets orientés conteneurisation (Docker / Kubernetes sur EKS — bonus). Environnement technique (100% AWS) : AWS Services : EC2, EBS, S3, EKS, IAM, CloudWatch, ALB/NLB, KMS, VPC, Secrets Manager, Backup. OS : Rocky Linux / RedHat 8.x Bases de données : Cassandra 4.x, MySQL 8.x, PostgreSQL 14/15 Écosystème : Elasticsearch 8.x, Kafka/MSK Outils : Terraform, Ansible, GitLab CI/CD, Prometheus, Grafana
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
Ansible
AWS CloudFormation
Bash
35k-50k €
France
Télétravail 100%
Au sein d’Atyos, nous évoluons dans un contexte pur Cloud, qui vous permettra de travailler sur des sujets d’automatisation d’environnements et de mise en place de pipeline CI/CD sur la plateforme Cloud AWS Nous attachons beaucoup d’importance à la curiosité et à la veille technologique et nous offrons du temps et des moyens à chacun pour se former et se certifier sur les technologies que nous utilisons ou que nous utiliserons. La mission: La mise en place de workflows d’intégration et de déploiement continu Le design des processus de déploiement d’application traditionnelles et cloud native L’automatisation des déploiements des différents environnements L’accompagnement des évolutions de plateformes, afin de soutenir au mieux les applications La mise en place des process de monitoring / alerting / logging La consolidation et la refactorisation des scripts d’IaC Mise en place de tests de performance Notre contexte technique: OS : Amazon Linux, CentOS/RHEL, Windows Server Orchestration des conteneurs : Amazon ECS, Kubernetes Infrastructure as Code : Terraform, Ansible Gestion de code source : GitLab, GitHub CI/CD : GitLab CI, GitHub Action Scripting : Bash, Python, PowerShell Monitoring : Prometheus, Grafana
Offre d'emploi
Développeur PHP Sénior (H/F)
Publiée le
35k-45k €
Crédit Agricole du Languedoc, Occitanie
Télétravail partiel
Rejoignez une entreprise montpelliéraine en forte croissance, spécialisée dans la conception de solutions d'e-Learning médical et d'outils interactifs destinés aux professionnels de santé, aux institutions hospitalières et aux universités du monde entier. Avec une gamme de produits Web et Mobile distribués à l'international, l'entreprise développe ses propres applications et poursuit son expansion grâce à l'innovation, la qualité et une réelle attention portée au bien-être des collaborateurs (horaires flexibles, semaine de 4 jours, coach sportif, certification Great Place to Work...). Rattaché(e) à la direction technique et intégré(e) à une équipe Web & Mobile, vous aurez pour rôle de : Pour accompagner son développement, l'équipe tech recrute un(e) Développeur(se) PHP Sénior afin de renforcer son pôle backend et contribuer à l'évolution de plateformes utilisées par des milliers d'utilisateurs dans plus de 70 pays. - Concevoir, développer et améliorer les applications backend sous PHP / Symfony. - Participer à l'évolution d'un CMS basé sur Ibexa, en collaboration avec les équipes internes. - Optimiser les performances, la sécurité et la fiabilité des applications. - Contribuer aux bonnes pratiques de développement et à la qualité du code. - Accompagner / mentorer des développeurs plus juniors selon vos appétences. - Participer aux choix d'architecture et aux évolutions techniques des produits. - Collaborer avec les équipes produit, mobile et infrastructure pour des projets transverse. Un stack moderne et orientée produits : Langages & Frameworks - PHP 8, Symfony 5/7 - CMS Ibexa - JavaScript, Vue.js, Node.js Cloud & Architecture - AWS (Lambda, Fargate/ECS, CloudFormation) - Fastly / Varnish - Docker, CI/CD CodeCommit / CodePipeline Tests, Data & Monitoring - MySQL (Aurora), SolrCloud - Playwright, Cypress, PHPUnit - NewRelic, CloudWatch, Blackfire Collaboration & outils Slack, ClickUp, outils JetBrains, Stripe, PayPal... Conditions et avantages : - Semaine de 4 jours / horaires flexibles - Mutuelle prise en charge à 100%. - Intéressement, PEI / PERCOI. - Prime vacances, tickets restaurant, forfait mobilités durables. - Séances de sport avec coach, fruits & légumes hebdomadaires.
Mission freelance
Software engineer C# .net / Bordeaux
Publiée le
.NET
1 an
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
🎯 Contexte Nous recherchons un développeur backend freelance pour renforcer une équipe tech produit basée à Bordeaux . L’objectif : concevoir et faire évoluer des microservices cloud AWS au sein d’une architecture event-driven moderne, avec une forte attention portée à la scalabilité , à la fiabilité et à l’ observabilité . ⚙️ Stack technique Langage : TypeScript (Node.js) Cloud : AWS (ECS Fargate, Lambda, S3, CloudWatch) Bases de données : MongoDB, Amazon Neptune Event-driven : SQS / SNS AI / Python : intégration de modules IA (LLM, services internes, etc.) Observabilité : Dynatrace, Elastic, Grafana, Datadog CI/CD & Infra : GitLab CI, Terraform, Docker 🧩 Missions Développer et maintenir des microservices backend scalables sur AWS Implémenter et optimiser des workflows asynchrones (SQS / SNS) Travailler en collaboration avec les équipes Data & AI sur des intégrations Python Mettre en place et suivre la supervision / observabilité (Dynatrace, Datadog, etc.) Participer à la conception technique , au code review et à la qualité globale du delivery
Mission freelance
Techlead DevOps AWS
Publiée le
AWS Cloud
36 mois
400-580 €
Île-de-France, France
Télétravail partiel
La mission dans les grandes lignes consiste à : Automatiser et orchestrer la livraison Cloud pour accélérer les déploiements. Simplifier les processus et assurer une traçabilité totale des opérations. Réduire les délais de livraison (Lead Time) grâce à l’automatisation et l’orchestration du déploiement Cloud Donner une visibilité complète et un suivi continu des résultats. 2 - La finalité attendue autour de l’automatisation : Déploiement de patterns d’architectures Cloud (objectif projet) Modification de ressources Cloud existantes (objectif projet et Run) Automatisation de la quality Assurance ArgoCD AWS GCP Terraform/ Enterprise GitLab / GitLab-CI Python Kubernetes (EKS/GKE) Ansible AAP Expertise sur les Pipeline CI CD (gitlab-ci, ansible, AWX, Jenkins etc.), langage python Maitrise des outils de déploiement automatisés Expérience sur des outils comme S3 (ECS, StorageGrid, Minio, ELK)
Offre d'emploi
Product Owner Technique Senior – API Backend Services
Publiée le
API REST
AWS Cloud
Graph API
24 mois
55k-67k €
400-600 €
Paris, France
Télétravail partiel
Objectif du poste Piloter le projet et le backlog du produit API Backend Services dans un contexte international de transformation digitale. Garantir la qualité, la cohérence et la fiabilité des microservices et APIs multi-consommateurs tout au long du cycle de vie produit. Responsabilités principales Backlog & Delivery Gérer, prioriser et affiner le backlog produit. Définir les critères d’acceptation et planifier les sprints. Assurer la compréhension fonctionnelle et technique des tickets. Étudier les API sources et analyser les réponses API. Participer ou animer les ateliers techniques. Release Management Préparer et animer les release reviews , rédiger les release notes . Organiser les instances de validation ( Go/NoGo , release readiness ). Assurer la recette fonctionnelle avant UAT et le suivi des livraisons inter-équipes. Gérer le support technique niveau 3 (incidents critiques, root cause analysis ). Quality & Monitoring Suivre la qualité et la cohérence du produit, y compris en production. Vérifier la cohérence des livraisons des services connectés. Contribuer à la documentation sur Confluence. Contexte technique Produit : APIs REST & GraphQL, architecture microservices Langages & Frameworks : Node.js, NestJS, TypeScript, Apollo Server Cloud : AWS (ECS, Lambda, S3, OpenSearch, Redis/Valkey, Kinesis, CloudWatch) Outils : Jira, Confluence, Postman, Swagger, Splunk
Mission freelance
Expert BDD AWS
Publiée le
AWS Cloud
AWS Cloudwatch
DevOps
6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage sasu à eurl: transition mutuelle/prévoyance
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation électronique 01 : Rappel du calendrier !
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
39 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois