Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Votre recherche renvoie 31 résultats.
Freelance

Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)

Publiée le
React

6 mois
500-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Freelance

Mission freelance
Architecte Infrastructure

Publiée le
API
Docker
Kubernetes

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Architecte Infrastructure. Réaliser la conception technique des architectures pour le périmètre des applications, objet du présent AO ; Cette mission est centrée sur des compétences spécifiques Kubernetes de RedHat, RehHap d'OpenShift Connaissance d'une ou plusieurs solutions d'API Management, IBM API Connect Compétences rédactionnelles Serveurs X86 WMWARE RedHat Lunix 7.x/8.x Docker/Kubernetes Infrastructures Java Accès de fichiers et protocoles S3 Livrables : Dossier de cadrage technique Dossiers de choix techniques Dossiers d'Exigence Non Fonctionnelles
Freelance

Mission freelance
DevOps Cloud & Réseau AWS

Publiée le
Ansible
Argo CD
AWS Cloud

3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Développeur Go / Backend Kubernetes

Publiée le
API
Go (langage)
Kubernetes

12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Airflow
AWS Cloud
Dataiku

12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
CDI
Freelance

Offre d'emploi
Product Owner Technique Senior – API Backend Services

Publiée le
API REST
AWS Cloud
Graph API

24 mois
55k-67k €
400-600 €
Paris, France
Télétravail partiel
Objectif du poste Piloter le projet et le backlog du produit API Backend Services dans un contexte international de transformation digitale. Garantir la qualité, la cohérence et la fiabilité des microservices et APIs multi-consommateurs tout au long du cycle de vie produit. Responsabilités principales Backlog & Delivery Gérer, prioriser et affiner le backlog produit. Définir les critères d’acceptation et planifier les sprints. Assurer la compréhension fonctionnelle et technique des tickets. Étudier les API sources et analyser les réponses API. Participer ou animer les ateliers techniques. Release Management Préparer et animer les release reviews , rédiger les release notes . Organiser les instances de validation ( Go/NoGo , release readiness ). Assurer la recette fonctionnelle avant UAT et le suivi des livraisons inter-équipes. Gérer le support technique niveau 3 (incidents critiques, root cause analysis ). Quality & Monitoring Suivre la qualité et la cohérence du produit, y compris en production. Vérifier la cohérence des livraisons des services connectés. Contribuer à la documentation sur Confluence. Contexte technique Produit : APIs REST & GraphQL, architecture microservices Langages & Frameworks : Node.js, NestJS, TypeScript, Apollo Server Cloud : AWS (ECS, Lambda, S3, OpenSearch, Redis/Valkey, Kinesis, CloudWatch) Outils : Jira, Confluence, Postman, Swagger, Splunk
Freelance

Mission freelance
Développeur Senior Java / AWS (Asset Control & Management)

Publiée le
Angular
Apache Tomcat
AWS Cloud

6 mois
400-550 €
Paris, France
Télétravail partiel
Rejoindre l’équipe en charge du développement et de la maintenance de la solution Asset Control & Management , dans un environnement Cloud AWS. Tu participeras activement au développement backend Java , à la mise en place des pipelines CI/CD et à la stabilité des microservices . Langage : Java 17 / 21 Frameworks : Spring Boot / Spring Batch / Spring Cloud Architecture : microservices Messaging : Kafka Infrastructure as Code : Terraform CI/CD : Jenkins, GitLab CI/CD Cloud : AWS (Lambda, ECS, EKS, S3, RDS, CloudWatch) Conteneurisation : Docker, Kubernetes Qualité / Monitoring : SonarQube, Grafana, ELK Stack Méthodologie : Agile / Scrum
Freelance

Mission freelance
AWS engineer / Architect

Publiée le
AWS Cloud
AWS Glue

12 mois
550-870 €
Paris, France
Télétravail partiel
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Freelance

Mission freelance
[LFR] Expert DevSecOps AWS à Paris - 982

Publiée le

10 mois
300-530 €
Paris, France
Télétravail partiel
Compétences techniques clés (obligatoires) : Python (5 ans minimum) : développement de scripts, automatisation, tests unitaires. AWS CloudFormation (5 ans minimum) : création et gestion d’infrastructures as code. AWS (3 ans minimum) : expérience concrète avec les services AWS (IAM, EC2, S3, Lambda, etc.). Terraform (3 ans minimum) : bien que secondaire, cette compétence est utile pour comparer ou migrer des configurations. CI/CD & DevSecOps : pipelines automatisés, intégration de la sécurité dans le cycle de développement. Tests unitaires et revues de code (PR reviews) : bonne pratique agile. Compétences méthodologiques : Agilité (Scrum) : travail en sprints, livrables réguliers, collaboration en équipe. Documentation & Design technique : capacité à formaliser les besoins et les solutions. Soft skills & environnement : Anglais courant : environnement international. Travail hybride : capacité à travailler en autonomie et en équipe, présence requise certains jours. Capacité à passer un test technique : autonomie, rigueur, expertise réelle. Un développeur ou ingénieur cloud senior, avec une forte expertise en infrastructure as code sur AWS, capable de concevoir, développer et tester des solutions dans un environnement agile et sécurisé.
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance
CDD

Offre d'emploi
NV - Ingénieur cloud AWS et Réseaux

Publiée le
AWS Cloud
Cisco
IAC

3 mois
Paris, France
Télétravail partiel
Bonjour, Je recherche un profil cloud AWS avec des compétences Infra as Code pour travailler sur des sujets de Réseaux/Sécurité. CONTEXTE Dans le cadre du projet "IT Network Segmentation" et d'un audit Global des recommandations ont été faite afin de redéfinir le périmètre Network. Il faut désormais implémenter et déployer les recommandations afin de poursuivre le projet et prendre en charge la conception, le déploiement et le support réseau, tout en contribuant à l’évolution de l'infrastructure cloud. PROFIL Ingénieur Cloud AWS et NON INGENIEUR RESEAUX SECURITE 5+ ans d'expérience MISSION Déployer et gérer les services AWS Cloud, notamment VPC, EC2, ELB, S3, Route 53 et IAM. Mettre en œuvre une connectivité sécurisée entre les environnements sur site et cloud AWS. Collaborer avec les équipes DevOps et sécurité pour optimiser les architectures réseau et cloud. Participer aux projets de mise à niveau et de migration réseau. Créer et maintenir la documentation relative à la conception, la configuration et les processus réseau. Surveiller l’infrastructure réseau et cloud à l’aide d’outils appropriés et réagir de manière proactive aux incidents. Garantir la conformité avec les politiques de sécurité et d’exploitation. COMPETENCES TECHNIQUES AWS (Certification AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent.) CISCO (Certification CCNP – Routing & Switching ou Enterprise, ou équivalent est un plus) ANGLAIS INDISPENSABLE Must Have Expérience avérée en administration AWS Cloud, y compris la gestion et l’intégration des services AWS. Connaissance des outils d’infrastructure-as-code (ex. : Cloud Formation, Terraform) Solide compréhension des protocoles réseau : BGP, OSPF, EIGRP, VLANs, STP, NAT, ACLs, IPsec, 802.1x. Expérience avec des outils de surveillance et de sécurité réseau. Maîtrise des bonnes pratiques de sécurité pour les environnements réseau et cloud. Familiarité avec les systèmes Cisco Meraki SD-WAN, de commutation et de réseau sans fil. Expérience dans des environnements hybrides et multicloud. Certification AWS (par exemple : AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent. Nice to Have Expérience en automatisation et Scripting (Python, Bash ou PowerShell). SOFT SKILLS Solides compétences en résolution de problèmes et en analyse. Excellentes capacités de communication et de documentation. Capacité à travailler de manière autonome et en équipe. À l’aise dans un environnement de travail dynamique et rapide. Démarrage : ASAP Durée : 3 mois renouvelable (longue visibilité jusqu'à 3 ans) Remote : 2 jours par semaine Nous sommes en exclusivité sur la demande et les entretiens peuvent avoir lieu dès cette semaine. Pour tout intérêt, merci de m'envoyer votre cv en format word et n'hésitez pas à me communiquer vos disponibilités pour l'entretien qui se déroulera totalement en anglais. Cordialement, Nathalie
Freelance

Mission freelance
DevOps Engineer AWS - Sénior

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud MISSIONS Nous sommes actuellement à la recherche d'un profil DevOps expérimenté sur le Cloud AWS. Vous intégrerez une équipe agile rattachée à la direction Cloud Platform. Dans ce cadre, vous serez chargé de l'automatisation des déploiements, de la gestion de l'infrastructure AWS, de la sécurité et de la conformité, de la gestion des logs et des alertes. Vous serez également responsable de la mise en place de solutions conteneurisées et serverless, tout en contribuant activement à l'amélioration des pratiques DevOps et de sécurité au sein de l'organisation. Expertise souhaitée - Forte expérience en ingénierie et en architecture de solutions d'infrastructure AWS - Expérience pratique des concepts suivants : AWS Landing Zone, AWS et de sécurité et stratégie multi-compte AWS - Connaissance approfondie des principes et de la conception de Terraform Infrastructure as Code (IaC). conception. - Expérience pratique de Gitlab et Gitlab-CI - Expérience avérée dans l'écriture de code de haute qualité en Python - Connaissance approfondie de l'infrastructure et des services AWS, y compris, mais sans s'y limiter, Fargate, Lambda, etc. Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc.. - Expérience avec les architectures conteneurisées & Serverless. - Expérience sur une solution SIEM, idéalement Splunk. - Expérience pratique des concepts suivants : Approche Shift-left & DevSecOps SBOM, SAST, services de sécurité et de conformité AWS (AWS Config, Inspector, Network Filewall, etc.) - Expérience des meilleures pratiques en matière de journalisation, de surveillance et d'alerte basées sur AWS Cloud et des outils standard de l'industrie, notamment Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
31 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous