Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Votre recherche renvoie 32 résultats.
Freelance

Mission freelance
Ingénieur SysOps (H/F) AWS-Linux

Publiée le
Administration linux
AWS Cloud

3 ans
400-600 €
Paris, France
Télétravail partiel
SysOps AWS linux Localisation : 92 TT : 2 jours longue durée : 3 ans avec contrat 1 an renouvelable Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Grafana > Participation à l'amélioration du monitoring / alerting Vos missions : - Vous allez accompagner les équipes sur l'intégration continue, des sujets de migrations - Vous allez mettre en place les éléments de monitoring - Vous ferez des préconisations sur la partie Finops
Freelance

Mission freelance
Architecte technique Openshift H/F

Publiée le
API
ArchiMate
Jboss

1 an
680-730 €
Paris, France
Pour un de nos clients, nous sommes à la recherche d'un Architecte Technique Openshift H/F. Lieu : Paris Date : ASAP Durée : 1 an renouvelable Mission : RedHat OpenShift 4.x Architecture technique avancée (middleware + réseau + sécurité) JBOSS EAP Linux RedHat Modélisation ArchiMate / MEGA Rédaction de DAT, NFR, fiches sécurité API Management (idéalement IBM API Connect) Gouvernance d’architecture TOGAF Connaissances fortement appréciées PostgreSQL 16 WebMethods 10.x S3 / protocoles émergents / interconnexions Java Spring Boot (lecture/diagnostic) Soft skills essentiels Capacité à défendre une architecture en comité Bonne vulgarisation technique Forte rigueur rédactionnelle Alerte proactive (obligation de conseil) Capacité à naviguer entre projet ↔ socles ↔ run Compétences techniques indispensables: Architecture technique complexe en environnement grand compte. Expertise OpenShift 4.x et conteneurisation. JBOSS EAP / middleware Java. Linux RedHat. API Management (idéalement IBM API Connect). WebMethods 10.x (fort atout). Modélisation ArchiMate et utilisation de MEGA. Très bonne connaissance sécurité (flux, durcissement, exposition API…). Compétences fonctionnelles/méthodologiques: Rédaction de DAT, NFR, fiches de sécurité. Capacité à présenter et défendre une architecture en comité. Compréhension des processus métiers SI internes & Entreprise. TOGAF (niveau pratique ou certifié idéalement). Soft Skills: Excellent niveau rédactionnel. Aisance orale, capacité à argumenter. Rigueur, autonomie et esprit de synthèse. Sens du service, pédagogie, capacité à vulgariser. Force de proposition (obligation de conseil).
Freelance

Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)

Publiée le
React

6 mois
500-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Freelance

Mission freelance
Architecte Infrastructure

Publiée le
API
Docker
Kubernetes

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Architecte Infrastructure. Réaliser la conception technique des architectures pour le périmètre des applications, objet du présent AO ; Cette mission est centrée sur des compétences spécifiques Kubernetes de RedHat, RehHap d'OpenShift Connaissance d'une ou plusieurs solutions d'API Management, IBM API Connect Compétences rédactionnelles Serveurs X86 WMWARE RedHat Lunix 7.x/8.x Docker/Kubernetes Infrastructures Java Accès de fichiers et protocoles S3 Livrables : Dossier de cadrage technique Dossiers de choix techniques Dossiers d'Exigence Non Fonctionnelles
Freelance

Mission freelance
TECH LEAD ( H/F)

Publiée le
Docker
Java

6 mois
400-550 €
Paris, France
Télétravail partiel
2 jour de TT TJM : 550 euros Dans le cadre d’un programme stratégique de modernisation du SI B2C , nous recherchons un consultant expert technique avec une forte connaissance du secteur Télécom pour intervenir au sein de la DSI B2C / Direction de la Modernisation du SI . 🎯 Contexte de la mission 👉 Mise en place d’une nouvelle solution de billing B2C Mobile & Fixe , basée sur ARBOR/KENAN (AMDOCS) 👉 Objectif : concevoir un système de facturation robuste et évolutif pour les 10 à 15 prochaines années 🧩 Rôle & responsabilités Le consultant interviendra en tant que référent technique et pilote du Delivery . 🔹 Pilotage du Delivery Animation et encadrement d’une équipe de 5 développeurs Estimation des charges, planification et suivi des développements Reporting et pilotage de l’avancement Garantie de la qualité, des délais et des engagements 🔹 Expertise technique Définition des architectures techniques et des outils de développement Revue de code et mise en place des bonnes pratiques Rédaction des spécifications techniques Support technique aux équipes de développement 🛠️ Compétences techniques clés ✅ Java / Backend Java 8+ (Spring Boot, Spring Data, Spring Security, Spring Cloud) JPA / Hibernate Web Services REST & SOAP Maven / Gradle Git ✅ DevOps & Cloud Docker & Kubernetes (Helm, scaling, ConfigMaps, Secrets, volumes) CI/CD & pratiques DevOps S3 Buckets ✅ Data & Middleware Bases de données : Oracle, PostgreSQL, MongoDB ETL / Apache NiFi Kafka (producers, consumers, Kafka Connect, configuration) ✅ Qualité & Tests Tests unitaires et d’intégration : JUnit, Mockito 📡 Pré-requis indispensables 🔴 Très forte connaissance du secteur Télécom 🔴 Expérience sur des systèmes de billing B2C Mobile & Fixe 🔴 Une expérience sur ARBOR / KENAN – AMDOCS est un atout majeur 🌟 Qualités personnelles Leadership et capacité à piloter une équipe Esprit d’équipe et excellent relationnel Autonomie, rigueur et sens des responsabilités Capacité à tenir des engagements dans des contextes complexes et exigeants
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Freelance

Mission freelance
DevOps Cloud & Réseau AWS

Publiée le
Ansible
Argo CD
AWS Cloud

3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Développeur Go / Backend Kubernetes

Publiée le
API
Go (langage)
Kubernetes

12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
CDI
Freelance

Offre d'emploi
Product Owner Technique Senior – API Backend Services

Publiée le
API REST
AWS Cloud
Graph API

24 mois
55k-67k €
400-600 €
Paris, France
Télétravail partiel
Objectif du poste Piloter le projet et le backlog du produit API Backend Services dans un contexte international de transformation digitale. Garantir la qualité, la cohérence et la fiabilité des microservices et APIs multi-consommateurs tout au long du cycle de vie produit. Responsabilités principales Backlog & Delivery Gérer, prioriser et affiner le backlog produit. Définir les critères d’acceptation et planifier les sprints. Assurer la compréhension fonctionnelle et technique des tickets. Étudier les API sources et analyser les réponses API. Participer ou animer les ateliers techniques. Release Management Préparer et animer les release reviews , rédiger les release notes . Organiser les instances de validation ( Go/NoGo , release readiness ). Assurer la recette fonctionnelle avant UAT et le suivi des livraisons inter-équipes. Gérer le support technique niveau 3 (incidents critiques, root cause analysis ). Quality & Monitoring Suivre la qualité et la cohérence du produit, y compris en production. Vérifier la cohérence des livraisons des services connectés. Contribuer à la documentation sur Confluence. Contexte technique Produit : APIs REST & GraphQL, architecture microservices Langages & Frameworks : Node.js, NestJS, TypeScript, Apollo Server Cloud : AWS (ECS, Lambda, S3, OpenSearch, Redis/Valkey, Kinesis, CloudWatch) Outils : Jira, Confluence, Postman, Swagger, Splunk
Freelance

Mission freelance
AWS engineer / Architect

Publiée le
AWS Cloud
AWS Glue

12 mois
550-870 €
Paris, France
Télétravail partiel
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance
CDD

Offre d'emploi
NV - Ingénieur cloud AWS et Réseaux

Publiée le
AWS Cloud
Cisco
IAC

3 mois
Paris, France
Télétravail partiel
Bonjour, Je recherche un profil cloud AWS avec des compétences Infra as Code pour travailler sur des sujets de Réseaux/Sécurité. CONTEXTE Dans le cadre du projet "IT Network Segmentation" et d'un audit Global des recommandations ont été faite afin de redéfinir le périmètre Network. Il faut désormais implémenter et déployer les recommandations afin de poursuivre le projet et prendre en charge la conception, le déploiement et le support réseau, tout en contribuant à l’évolution de l'infrastructure cloud. PROFIL Ingénieur Cloud AWS et NON INGENIEUR RESEAUX SECURITE 5+ ans d'expérience MISSION Déployer et gérer les services AWS Cloud, notamment VPC, EC2, ELB, S3, Route 53 et IAM. Mettre en œuvre une connectivité sécurisée entre les environnements sur site et cloud AWS. Collaborer avec les équipes DevOps et sécurité pour optimiser les architectures réseau et cloud. Participer aux projets de mise à niveau et de migration réseau. Créer et maintenir la documentation relative à la conception, la configuration et les processus réseau. Surveiller l’infrastructure réseau et cloud à l’aide d’outils appropriés et réagir de manière proactive aux incidents. Garantir la conformité avec les politiques de sécurité et d’exploitation. COMPETENCES TECHNIQUES AWS (Certification AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent.) CISCO (Certification CCNP – Routing & Switching ou Enterprise, ou équivalent est un plus) ANGLAIS INDISPENSABLE Must Have Expérience avérée en administration AWS Cloud, y compris la gestion et l’intégration des services AWS. Connaissance des outils d’infrastructure-as-code (ex. : Cloud Formation, Terraform) Solide compréhension des protocoles réseau : BGP, OSPF, EIGRP, VLANs, STP, NAT, ACLs, IPsec, 802.1x. Expérience avec des outils de surveillance et de sécurité réseau. Maîtrise des bonnes pratiques de sécurité pour les environnements réseau et cloud. Familiarité avec les systèmes Cisco Meraki SD-WAN, de commutation et de réseau sans fil. Expérience dans des environnements hybrides et multicloud. Certification AWS (par exemple : AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent. Nice to Have Expérience en automatisation et Scripting (Python, Bash ou PowerShell). SOFT SKILLS Solides compétences en résolution de problèmes et en analyse. Excellentes capacités de communication et de documentation. Capacité à travailler de manière autonome et en équipe. À l’aise dans un environnement de travail dynamique et rapide. Démarrage : ASAP Durée : 3 mois renouvelable (longue visibilité jusqu'à 3 ans) Remote : 2 jours par semaine Nous sommes en exclusivité sur la demande et les entretiens peuvent avoir lieu dès cette semaine. Pour tout intérêt, merci de m'envoyer votre cv en format word et n'hésitez pas à me communiquer vos disponibilités pour l'entretien qui se déroulera totalement en anglais. Cordialement, Nathalie
Freelance

Mission freelance
DevOps Engineer AWS - Sénior

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud MISSIONS Nous sommes actuellement à la recherche d'un profil DevOps expérimenté sur le Cloud AWS. Vous intégrerez une équipe agile rattachée à la direction Cloud Platform. Dans ce cadre, vous serez chargé de l'automatisation des déploiements, de la gestion de l'infrastructure AWS, de la sécurité et de la conformité, de la gestion des logs et des alertes. Vous serez également responsable de la mise en place de solutions conteneurisées et serverless, tout en contribuant activement à l'amélioration des pratiques DevOps et de sécurité au sein de l'organisation. Expertise souhaitée - Forte expérience en ingénierie et en architecture de solutions d'infrastructure AWS - Expérience pratique des concepts suivants : AWS Landing Zone, AWS et de sécurité et stratégie multi-compte AWS - Connaissance approfondie des principes et de la conception de Terraform Infrastructure as Code (IaC). conception. - Expérience pratique de Gitlab et Gitlab-CI - Expérience avérée dans l'écriture de code de haute qualité en Python - Connaissance approfondie de l'infrastructure et des services AWS, y compris, mais sans s'y limiter, Fargate, Lambda, etc. Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc.. - Expérience avec les architectures conteneurisées & Serverless. - Expérience sur une solution SIEM, idéalement Splunk. - Expérience pratique des concepts suivants : Approche Shift-left & DevSecOps SBOM, SAST, services de sécurité et de conformité AWS (AWS Config, Inspector, Network Filewall, etc.) - Expérience des meilleures pratiques en matière de journalisation, de surveillance et d'alerte basées sur AWS Cloud et des outils standard de l'industrie, notamment Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
32 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous