L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 382 résultats.
Offre d'emploi
Lead Developer Angular/Node.js
Avanda
Publiée le
Angular
AWS Cloud
DevSecOps
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients, leader de son activite, un Lead Developer Angular/Node.js H/F pour piloter techniquement une équipe produit et contribuer activement au développement d'une application en environnement cloud AWS. Ce poste est a pourvoir a Lyon, presence sur site de 3 jours par semaine. En tant que Lead Developer vos principales missions sont les suivantes : Définir et porter la stratégie technique du produit (architecture, choix technologiques, bonnes pratiques) Assurer la cohérence et la qualité des développements via des revues de code régulières Accompagner la montée en compétences des développeurs (pair programming, coding dojo, tech meetings) Être le référent technique pour les décisions structurantes et l'arbitrage avec le Product Owner Contribuer activement au développement des fonctionnalités (BUILD) et à la maintenance applicative (RUN) Rédiger et maintenir la documentation technique (architecture, stratégie de tests, bonnes pratiques) Participer aux cérémonies agiles et assurer le suivi des activités via les outils de ticketing Proposer des améliorations continues et assurer une veille technologique active
Mission freelance
FREELANCE – Ingénieur de Production (H/F)
Jane Hope
Publiée le
AWS Cloud
Openshift
6 mois
300-350 €
Nancy, Grand Est
Notre client basé à Nancy (54) est à la recherche d’un Ingénieur de Production (H/F) pour l’accompagner sur ses projets. MISSIONS · Prendre en charge l’intégration de nouvelles applications ou de progiciels, depuis la phase de réception jusqu’à la mise à disposition · Effectuer la réception, la validation et le packaging des composants applicatifs. · Installer et déployer les composants sur les environnements cibles · Réaliser la recette technique et l’homologation des applications avant leur mise en production · Participer activement à l’amélioration continue des processus et des outils d’industrialisation et de déploiement · Analyser le contexte technique et prenez connaissance des changements à intégrer · Compléter et exécuter le plan de tests techniques, en préparant les infrastructures nécessaires · Valider les documents et procédures destinés à la production · Réaliser les tests techniques (performance, intégration, compatibilité, etc.) et analysez les résultats · Contribuer au diagnostic et à la résolution des incidents en cas de dysfonctionnement · Rédiger des rapports détaillés facilitant la prise de décision pour la mise en production · Mettre à jour le patrimoine de tests réutilisable pour les futures intégrations · Assurer un reporting régulier et proposez des actions d’amélioration continue · Industrialiser et automatiser les tests récurrents à l’aide d’outils adaptés ENVIRONNEMENT TECHNIQUE · Systèmes : Linux · Cloud : AWS (EC2, S3, IAM, CloudFormation, EKS, etc.) · Outils DevOps : CI/CD, outils d’automatisation et de conteneurisation ( OpenShift , Docker, Kubernetes) · Langages et scripting : Shell / Bash / Python
Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)
SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Offre d'emploi
Junior Cloud Architect / Avant-Vente (AWS & Google Cloud)
SCC France SAS
Publiée le
AWS Cloud
92000, Nanterre, Île-de-France
Architecture & Avant-vente (avec encadrement Senior) Participer à la conception d’architectures Cloud (AWS, GCP) sous la supervision d’un architecte senior. Contribuer à la rédaction des livrables d’avant-vente : High Level Design (HLD), comparatifs techniques, mémoires techniques. Réaliser des chiffrages, dimensionnements et estimations de coûts via les abaques internes et les calculateurs AWS / GCP. Assister aux soutenances clients, comités techniques et réunions avant-vente, avec prise de parole progressive. Produire des architectures de référence et des schémas techniques (, Lucidchart). Support aux offres de services Contribuer à l’enrichissement des offres cloud (fiches offres, templates, battlecards). Réaliser des benchmarks et comparatifs entre les services AWS / GCP. Participer aux réponses à appels d’offres sur les volets techniques. Aider à la préparation de démos et de Proof of Concepts (PoC) dans le cadre d’opportunités commerciales. Montée en compétences & veille technologique Préparer et obtenir les certifications AWS & GCP selon le plan de formation interne. Participer aux formations internes, aux sessions partenaires et aux programmes de formations hyperscalers. Assurer une veille active sur les nouveaux services cloud, tendances du marché et bonnes pratiques. Contribuer au partage de connaissances au sein de la Cloud Practice. Support technique interne Apporter un support aux équipes Sales et Solution Architects sur les questions cloud courantes. Répondre aux sollicitations internes (sizing, pricing, éligibilité des services AWS / GCP). Activités secondaires Participer aux webinaires, événements hyperscalers et bootcamps partenaires. Contribuer à la documentation interne (runbooks, retours d’expérience, templates). Assurer un reporting régulier auprès du Practice Lead ou du SA Senior référent.
Mission freelance
Lead Data Engineer - Financial
Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git
6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Mission freelance
Python Backend Developer (Fullstack) – FastAPI / React / AWS
SKILLWISE
Publiée le
FastAPI
Python
React
3 mois
400-550 €
Paris, France
Nous recherchons pour un de nos client un(e) Python Backend Developer expérimenté(e) pour rejoindre notre équipe produit. Vous interviendrez sur le développement et l’amélioration continue de notre plateforme, avec un rôle clé à la croisée du backend, du frontend et de la data. Vous évoluerez dans un environnement dynamique, avec une forte culture produit et une approche moderne du développement (cloud, serverless, AI-assisted development). Missions principales Concevoir, développer et maintenir des APIs backend scalables avec Python et FastAPI Développer des interfaces modernes en ReactJS et TypeScript Assurer l’intégration fluide entre frontend et backend Déployer, monitorer et optimiser les applications sur AWS (serverless) Collaborer étroitement avec les équipes produit et design Mettre en place des mécanismes de sécurité et de protection des données Garantir la qualité du code (tests, revues, bonnes pratiques) Identifier et résoudre les problèmes de performance Participer à l’amélioration continue des pratiques de développement
Offre d'emploi
SOLUTION ARCHITECT SPECIALIST SENIOR AWS/GCP
SCC France SAS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Nanterre, Île-de-France
Architecture & Avant-vente • Concevoir et valider l'architecture technique sur des dossiers stratégiques (appels d'offres, comptes clés) • Préconiser des choix techniques adaptés aux enjeux clients, en s'appuyant sur les catalogues AWS et Google Cloud • Définir les prestations selon les abaques internes et produire les livrables d’avant-vente (chiffrages, HLD/LLD, livrables techniques) • Accompagner les équipes commerciales en soutenance client et participer aux comités techniques • Construire des architectures de référence réutilisables (Landing Zone, sécurité, FinOps, migration) Développement des offres de services • Contribuer à la construction et à la promotion des offres de services autour d’AWS et Google Cloud : – Managed Services, Cloud Operations (C&SM) – Migration & Modernisation applicative – Data, IA/ML, Analytics sur cloud public – Sécurité cloud (CSPM, Zero Trust, conformité) – FinOps et optimisation des coûts cloud • Collaborer avec les équipes Alliance (AWS, Google Cloud) pour valoriser les programmes partenaires (funding, co-sell, MDF) • Participer à la création de contenus commerciaux : fiches offres, battle cards, références clients Enablement & expertise interne • Diffuser son expertise technique auprès des forces commerciales (SA, SAS, Account Managers) via réunions, formations et supports à la vente • Être le référent technique cloud public au sein des équipes : point d'escalade sur les sujets AWS et Google Cloud • Mentorer les architectes juniors et seniors sur les bonnes pratiques cloud Conseil & missions clients • Mener des missions de conseil (audits d'architecture, études de faisabilité, cloud strategy workshops) • Animer des workshops de discovery et de design thinking avec les équipes techniques clients (CTO, architectes, DSI) ACTIVITÉS SECONDAIRES • Participer et intervenir lors de séminaires, webinaires et événements partenaires (re:Invent, Google Cloud Next…) • Analyser l'impact des nouvelles solutions cloud dans les systèmes d'information clients • Assurer un reporting régulier sur les opportunités et les activités d'avant-vente • Assurer une veille technologique active sur les évolutions AWS, Google Cloud et le marché cloud • Contribuer à la pratique Cloud (retours d’expérience, documentation, standards)
Mission freelance
Développeur Fullstack AWS
Signe +
Publiée le
AWS Cloud
React
SQL
6 mois
400-420 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients 2 développeurs full stack AWS avec un niveau d’anglais professionnel (B2 ou +). Rôle : Le candidat fera partie de l'équipe de développement. Il aura pour responsabilité de se familiariser avec l'application et de contribuer au développement, à la validation et à la mise en service. Cadre SCRUM • Participation aux cérémonies SCRUM (planification de sprint, réunion quotidienne, rétrospective, affinement du backlog) • Participation aux estimations des User Stories et aux SWAG • Participation aux réunions internes (hebdomadaires avec la direction) Développement • Contribuer au développement du front-end (React) et du back-end (TypeScript) au sein de l’équipe • Tests unitaires Documentation • Capitaliser sur la page Confluence d’Airbus • Rédiger de la documentation technique si nécessaire
Offre d'emploi
data engineer AWS, Snowflake, SAP
LEVUP
Publiée le
AWS Glue
MySQL
Python
1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Offre d'emploi
Data Engineer – Pipelines de données (SQL / ETL / AWS) – H/F
SMARTPOINT
Publiée le
API
AWS Cloud
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes data, nous recherchons un Data Engineer (H/F) pour intervenir sur la conception, le développement et la maintenance de pipelines de données ainsi que sur l’exploitation et l’amélioration des solutions techniques associées. Vous contribuerez au bon fonctionnement des plateformes data en assurant le développement de pipelines ETL/ELT, la manipulation de données et le maintien en conditions opérationnelles des systèmes . Vous évoluerez dans un environnement technique moderne reposant sur des architectures API/Webservices, des solutions cloud AWS et des pratiques DevOps .
Offre d'emploi
Ingénieur DevSecOps Cloud AWS- KBS
KEONI CONSULTING
Publiée le
AWS Cloud
Cloud
Grafana
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur DevSecOps Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur DevSecOps est Responsable de l'industrialisation des pipelines de livraison et de l'intégration des pratiques de sécurité tout au long du cycle de développement et de déploiement sur infrastructure AWS. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation EXPERTISE & Compétences clés attendues : · Maîtrise des outils CI/CD (GitLab CI, GitHub Actions, ArgoCD) · Infrastructure as Code avec Terraform et gestion des modules réutilisables · Orchestration de conteneurs Kubernetes (EKS) : nodes, autoscaling, namespaces, ingress · Sécurité applicative intégrée : scan de vulnérabilités (Trivy, Snyk), SAST/DAST · Gestion et gouvernance des images Docker (registry, policy, scan) · Implémentation des principes Zero Trust, IAM Roles et RBAC Kubernetes · Gestion des secrets et rotation de clés (AWS Secrets Manager, KMS) · Monitoring et observabilité (CloudWatch, Prometheus, Grafana, OpenTelemetry) · Conformité réglementaire : RGPD, CNIL, Cloud Act · Rédaction de runbooks d'exploitation et documentation des procédures CI/CD
Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Mission freelance
Expert Dataiku DSS - Bordeaux
Signe +
Publiée le
Agent IA
AWS Cloud
Azure
3 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industrialisation (build & run). OBJECTIFS DE LA MISSION · Industrialiser les projets de Machine Learning développés sous Dataiku DSS · Mettre en place une chaîne MLOps robuste, sécurisée et maintenable · Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku · Assurer le bon passage du POC à la production, puis l’exploitation dans le temps · Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data PERIMETRE D’INTERVENTION • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD LIVRABLES ATTENDUS · Pipelines MLOps Dataiku industrialisés et documentés · Modèles ML déployés et supervisés en production · Connecteurs Dataiku vers les sources de données opérationnels · Documentation d’exploitation MLOps & DataOps · Recommandations de standardisation et d’amélioration continue INTERACTIONS · Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet · Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation COMPETENCES · Dataiku DSS – niveau avancé (MLOps & DataOps) · Expérience confirmée en industrialisation de modèles ML · Python, SQL · CI/CD, Git · Très bonne compréhension des architectures Data · Environnements Cloud (AWS / GCP / Azure) · Sensibilité forte aux enjeux sécurité, RUN et exploitation
Mission freelance
Ingénieur(e) Backend Senior – Serverless AWS / Node.js / TypeScript
Syneam
Publiée le
Gateway
Node.js
TypeScript
6 mois
Hauts-de-Seine, France
Dans le cadre d'une taskforce au sein d'une banque en ligne, notre client recherche un ingénieur backend senior pour concevoir et opérer des services et APIs REST critiques, hautement disponibles et scalables. La mission s'inscrit dans un environnement cloud AWS, avec une forte orientation serverless et des exigences élevées en matière de qualité logicielle. Descriptif de la mission Concevoir, développer et exposer des APIs REST robustes et sécurisées en Node.js/TypeScript sur architecture serverless AWS (Lambda, API Gateway) Garantir la performance et la scalabilité des services (optimisation cold starts, latence, throughput) Mettre en œuvre les bonnes pratiques d'ingénierie : tests automatisés, revues de code, CI/CD, qualité logicielle Contribuer à l'architecture événementielle et à la gestion des flux asynchrones Arbitrer et prioriser la dette technique en lien avec l'architecte Collaborer étroitement avec les équipes front-end et architecture, et tenir les jalons de la taskforce
Mission freelance
Directeur de Programme Cloud - Paris
Net technologie
Publiée le
AWS Cloud
Azure
Cloud
4 mois
Paris, France
Nous recherchons un(e) Directeur de Programme pour piloter des projets Cloud complexes, en assurant la gestion opérationnelle, contractuelle et financière des engagements clients. 🎯 Objectif : garantir la réussite des projets, la satisfaction client et le respect des engagements dans un environnement multi-équipes. 🚀 Missions Pilotage de projets Cloud complexes (delivery, budget, risques, qualité) Participation aux phases d’avant-vente & cadrage des besoins clients Gestion contractuelle : conformité, avenants, suivi des engagements Coordination des équipes techniques & opérationnelles Gestion de la relation client & des escalades Pilotage financier : forecast, facturation, cash-flow, rentabilité Contribution à la stratégie commerciale et au développement des opportunités
Mission freelance
AWS Platform Engineer remote (H/F)
STHREE SAS
Publiée le
36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1382 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois