Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris
Mission freelance
Expert Stockage Objet MinIO / S3
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, InfrastructureExpert Spécialités technologiques :Stockage,API,ML Compétences Technologies et Outils Docker Active Directory Kubernetes LDAP Soft skills Autonomie Rigueur Nous recherchons un expert technique de haut niveau pour accompagner notre client dans la conception, la mise en œuvre, l'optimisation et la maintenance de notre infrastructure de stockage objet basée sur MinIO. Le candidat retenu devra justifier d'une expérience significative en environnement de production, avec des contraintes fortes de haute disponibilité, de performance et de scalabilité. MISSIONS Maîtrise approfondie de MinIO et de l'écosystème S3 - Expertise de l'API S3 : Connaissance complète des fonctionnalités de l'API S3 (gestion des objets, versioning, politiques de cycle de vie, multipart upload, presigned URLs, etc.). - Architecture MinIO : Compréhension fine de l'architecture de MinIO, y compris le fonctionnement du mode distribué, l'erasure coding pour la protection des données, et le processus de guérison automatique (healing). - Déploiement et Configuration : Expérience avérée dans le déploiement de clusters MinIO à grande échelle, que ce soit sur des serveurs bare-metal, des machines virtuelles ou dans un environnement conteneurisé (Kubernetes, Docker). L’échelle en terme de stockage est entre 500 et 900TB en cible à 5ans. - Sécurité : Maîtrise des aspects de sécurité liés à MinIO, incluant le chiffrement (côté serveur et côté client), la gestion des identités et des accès (IAM), et l'intégration avec des fournisseurs d'identité (LDAP, Active Directory). Haute Disponibilité et Scalabilité - Conception d'Architectures Résilientes : Capacité à concevoir et à mettre en œuvre des architectures MinIO garantissant une haute disponibilité (multi-nœuds, multi-sites). - Scalabilité Horizontale : Expérience dans l'ajout de nouveaux nœuds à un cluster MinIO existant sans interruption de service et connaissance des mécanismes de rééquilibrage automatique. - Gestion des Défaillances : Solide expérience dans la gestion des pannes (disques, nœuds) et les stratégies de reprise après sinistre. Performance et Optimisation - Analyse de Performance : Compétence dans l'utilisation d'outils de benchmark (comme warp) pour mesurer et analyser les performances (latence, débit) d'un cluster MinIO. - Optimisation : Capacité à identifier et à résoudre les goulots d'étranglement, que ce soit au niveau matériel (réseau, disques NVMe), système ou applicatif. - Caching : Connaissance des stratégies de mise en cache pour optimiser les performances des lectures. Expertise souhaitée Expérience de Production et Références Exigées Le candidat doit pouvoir présenter de manière détaillée une ou plusieurs implémentations significatives en environnement de production : - Description du Cas d'Usage : Quel était le besoin métier (stockage pour de l'analytique, de l'IA/ML, des sauvegardes, des médias, etc.) ? - Volumétrie et Charge : Quelle était la volumétrie des données gérées et le niveau de trafic (nombre de requêtes par seconde) ? - Enjeux de Performance : Description des défis spécifiques liés à la performance et des solutions mises en place pour y répondre. - Incidents et Résolution : Exemples concrets d'incidents de production gérés et des leçons apprises. Connaissance d'une Solution Alternative : Une expérience significative avec une autre solution de stockage objet compatible S3 est un atout majeur. Le candidat devrait être capable de comparer MinIO à cette alternative sur des critères techniques et opérationnels. Exemples de solutions alternatives pertinentes : - Ceph - OpenIO - Garage - Services S3 natifs dans un contexte cloud privé SecNumCloud Qualités Personnelles - Autonomie et Proactivité : Capacité à travailler de manière autonome, à diagnostiquer des problèmes complexes et à proposer des solutions robustes. - Rigueur et Méthodologie : Approche structurée dans la résolution des problèmes et la gestion des environnements de production. - Bonne Communication : Aptitude à communiquer clairement sur des sujets techniques complexes avec différentes équipes.
Mission freelance
Data Engineer
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Offre d'emploi
Expert·e/ Architecte Backup
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Mission freelance
AWS engineer / Architect
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Mission freelance
Développeur Senior Java / AWS (Asset Control & Management)
Rejoindre l’équipe en charge du développement et de la maintenance de la solution Asset Control & Management , dans un environnement Cloud AWS. Tu participeras activement au développement backend Java , à la mise en place des pipelines CI/CD et à la stabilité des microservices . Langage : Java 17 / 21 Frameworks : Spring Boot / Spring Batch / Spring Cloud Architecture : microservices Messaging : Kafka Infrastructure as Code : Terraform CI/CD : Jenkins, GitLab CI/CD Cloud : AWS (Lambda, ECS, EKS, S3, RDS, CloudWatch) Conteneurisation : Docker, Kubernetes Qualité / Monitoring : SonarQube, Grafana, ELK Stack Méthodologie : Agile / Scrum
Mission freelance
Expert technique DEVOPS Senior
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Expert Devops Gitlab-CI
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
DataOps - MS FABRIC/ Azure
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Mission freelance
[LFR] Expert DevSecOps AWS à Paris - 982
Compétences techniques clés (obligatoires) : Python (5 ans minimum) : développement de scripts, automatisation, tests unitaires. AWS CloudFormation (5 ans minimum) : création et gestion d’infrastructures as code. AWS (3 ans minimum) : expérience concrète avec les services AWS (IAM, EC2, S3, Lambda, etc.). Terraform (3 ans minimum) : bien que secondaire, cette compétence est utile pour comparer ou migrer des configurations. CI/CD & DevSecOps : pipelines automatisés, intégration de la sécurité dans le cycle de développement. Tests unitaires et revues de code (PR reviews) : bonne pratique agile. Compétences méthodologiques : Agilité (Scrum) : travail en sprints, livrables réguliers, collaboration en équipe. Documentation & Design technique : capacité à formaliser les besoins et les solutions. Soft skills & environnement : Anglais courant : environnement international. Travail hybride : capacité à travailler en autonomie et en équipe, présence requise certains jours. Capacité à passer un test technique : autonomie, rigueur, expertise réelle. Un développeur ou ingénieur cloud senior, avec une forte expertise en infrastructure as code sur AWS, capable de concevoir, développer et tester des solutions dans un environnement agile et sécurisé.
Offre d'emploi
DevOps AWS (H/F)
Dans le cadre du renforcement d'une équipe dans le secteur de l'énergie, nous recherchons un(e) Ingénieur DevOps spécialisé AWS . Missions principales Concevoir, déployer et maintenir des architectures Cloud AWS (EC2, ECS, RDS, Lambda, etc.) Mettre en place et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.) Automatiser les déploiements avec des outils comme Terraform , CloudFormation ou Ansible Superviser les environnements de production et staging (monitoring, alerting, logs) Gérer les problématiques de scalabilité, sécurité, résilience et performance Optimiser les coûts d'infrastructure AWS Collaborer avec les équipes de développement et produit dans un contexte Agile Garantir la haute disponibilité et la sécurité des services Stack technique Cloud : AWS (EC2, ECS/Fargate, S3, RDS, Lambda, CloudWatch, IAM, Route 53, etc.) Infra as Code : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker, (Kubernetes ou ECS) Observabilité : Prometheus, Grafana, ELK, Datadog, CloudWatch Scripting : Bash, Python Sécurité : IAM, Secrets Manager, contrôle des accès, best practices AWS
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Data Engineer AWS senior
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).
Mission freelance
Cloud Security Expert / AWS
Contexte : Renforcement de notre posture de sécurité sur AWS. Services : Formalisation / révision des guides de durcissement de la sécurité pour plusieurs services AWS. Livrables : Formalisation des guides de durcissement de la sécurité pour au moins 8 services AWS, basés sur les exigences de sécurité du Groupe, les exigences de sécurité de l'entité du groupe, et les bonnes pratiques AWS. Services AWS identifiés : Lambda Event Hub CloudWatch EC2 KMS Secret Manager S3 SQS & SNS KMS Secret Manager S3 SQS & SNS KMS Secret Manager
Mission freelance
DBA orienté devops (Ansible, gitlab CI)
Dans le cadre de la modernisation et de l’optimisation d’un système d’information complexe, Notre client, une organisation du secteur culturel et technologique recherche un Ingénieur DevOps / DBA pour renforcer son équipe IT. La mission consiste à : Administrer, exploiter et optimiser les bases de données (PostgreSQL, Vertica, MariaDB, Oracle). Mettre en place et maintenir des environnements Cloud (AWS) et on-premises. Participer au maintien en conditions opérationnelles (MCO) et au Run . Développer et automatiser l’infrastructure (Infrastructure as Code). Garantir la supervision, la sécurité, la haute disponibilité et la continuité de service. Accompagner la montée en compétences des équipes internes et assurer le respect des normes. Stack technique Bases de données : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c Outils DevOps : Docker, Ansible, Git, Terraform, ElasticSearch, Kibana Systèmes & Réseaux : Linux, Réseaux Cloud : AWS (IAM, CloudWatch, CloudTrail, S3, EC2, services Core) Méthodologies : Cycle en V et Agile (Scrum, Kanban
Offre d'emploi
Data Engineer Pyspark/Dagster
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Développeur .NET / AWS
Pour l’un de mes clients, je recherche un(e) : Rôle : Développeur .NET / AWS Missions : Participer au développement et à l’évolution des applications, Intervenir sur la conception, le développement et l’optimisation des solutions en environnement .NET et AWS. Contribuer aux bonnes pratiques de code, à l’industrialisation et à la performance des applications. Tech : .NET (C#), AWS (EC2, S3, Lambda, RDS…), CI/CD, API REST, bases de données SQL/NoSQL, bonnes pratiques DevOps. Profil : Développeur confirmé avec minimum 5 ans d’expérience. Solide expertise .NET et bonne maîtrise des environnements AWS. Autonomie, sens du collectif et capacité à travailler dans un contexte agile. Conditions : Freelance, mission longue, basé à Paris (3 à 4 jours de télétravail par semaine). TJM : 450 - 500 € Disponibilité : Immédiate à 15 jours
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.