Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
AWS Data Engineer
Développer et maintenir des pipelines de données évolutifs à l’aide de Python, Spark et des services AWS. Effectuer des calculs sur des données chronologiques et événementielles issues de parcs solaires et de systèmes de stockage d'énergie. Concevoir et mettre en œuvre une infrastructure sous forme de code (IaC) avec Terraform pour gérer les ressources cloud. Collaborer avec les responsables des parcs solaires et de stockage afin de comprendre les besoins en données et de fournir des informations pertinentes. Développer des API ou des interfaces de données pour exposer les données traitées à des fins d'analyse et de visualisation. Garantir la qualité, la fiabilité et la performance des données à toutes les étapes du pipeline. Documenter les processus et contribuer aux meilleures pratiques en ingénierie des données et en analyse des énergies renouvelables.

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Offre d'emploi
Expert·e/ Architecte Backup
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Mission freelance
Senior Python Backend Engineer / FULL REMOTE
Description du poste – Senior Python Backend Engineer (Freelance)Contexte Nous accompagnons un grand groupe international dans le cadre d’un projet de transformation digitale. Dans ce contexte, nous recherchons un Senior Python Backend Engineer pour une mission freelance longue durée. Le consultant rejoindra une équipe internationale et contribuera au développement d’une plateforme innovante orientée data, intégrant des technologies cloud et intelligence artificielle. Missions principales Développer et maintenir des services backend en Python (API, microservices). Concevoir et optimiser des architectures event-driven et serverless sur cloud public. Automatiser les déploiements via IaC (Terraform). Participer aux décisions techniques et aux choix d’architecture. Implémenter des tests et rédiger la documentation associée. Collaborer avec une équipe distribuée en mode agile. Stack technique Python (FastAPI, Flask) Cloud serverless : Lambda, Step Functions, DynamoDB, S3, SQS, EventBridge Terraform / CodePipeline Bases de données : MongoDB, Postgres Bonus : ETL, Batch, Geospatial Conditions de mission Contrat : Freelance Localisation : Remote, avec quelques déplacements ponctuels en Europe (2-3 fois par an) Démarrage : Dès que possible Durée : Mission longue Candidature par mail : Et/ou Linkedin : Sofiane O.C

Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Mission freelance
Expert technique DEVOPS Senior
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

Mission freelance
Expert Devops Gitlab-CI
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

Offre d'emploi
Développeur Java / Mainframe
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Concepteur/Développeur possédant une double compétence Java et Mainframe, expérimenté et autonome, pour participer à différents sujets côté Carte (projets, évolutions, assistance, maintenance). Vous interviendrez au sein d’une squad en charge de la refonte d’un système d’information majeur. Sous la responsabilité du Squad Leader, vous prendrez part aux différentes activités MOE : conception technique, développement, tests et assistance à la recette, mise en production ainsi que rédaction de la documentation applicative et des dossiers techniques associés. Les missions incluront notamment : La conception de solutions applicatives et techniques. La réalisation des développements selon les normes et standards internes. La définition et la réalisation des tests unitaires, d’enchaînement et d’intégration. L’accompagnement des phases de recette et la préparation des mises en production. La rédaction de l’ensemble de la documentation technique (DCA, DCAD, DTA, cahier de tests). Stack technique et outils utilisés : Java : Spring Boot, SpringBatch, JDK17 Containerisation : Docker, Kubernetes API Management : WSO2 Base de données : PostgreSQL, DB2 Messagerie : MQ Series, CFT Mainframe : COBOL, CICS, MVS, z/OS, SQL, IDZ CI/CD & versioning : GitLab, Jenkins2, Artifactory XRay Stockage : Bucket S3 Outils de développement : Eclipse, IntelliJ, Maven Méthodologie : Agile Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.
Mission freelance
Architecte Cloud AWS
Mission / Freelance / France / Architecte Cloud AWS / Expert / DataLake / DevOps / Sécurité / Terraform / Kubernetes Contexte : Dans le cadre de projets stratégiques de migration et de transformation cloud, nous recherchons un Architecte Cloud AWS pour renforcer une équipe en charge de la conception et de l’industrialisation de plateformes critiques. Le consultant interviendra sur des environnements complexes et multi-technologiques, avec un fort accent sur les bonnes pratiques AWS, l’automatisation IaC et la sécurité cloud. Localisation : Paris (2 à 3j/semaine sur site) Durée de mission : longue (6 mois renouvelables) Date de démarrage : ASAP Missions principales : Définir et concevoir des architectures cloud AWS (Landing Zones, DataLake, solutions hybrides). Préparer et piloter les migrations de solutions vers le cloud. Déployer les bonnes pratiques AWS (architecture, sécurité, coûts, gouvernance). Automatiser via Infrastructure as Code (Terraform, CloudFormation). Concevoir et industrialiser des chaînes CI/CD (Jenkins, GitLab CI, CodePipeline). Assurer l’intégration avec les environnements Kubernetes / Docker / Ansible. Implémenter des solutions de supervision et de monitoring (ELK, Prometheus, Grafana). Rédiger et maintenir la documentation technique et d’architecture. Collaborer étroitement avec les équipes Data, DevOps et Sécurité. Profil recherché : Expérience : 9+ ans dans l’IT dont plusieurs années en architecture cloud AWS. Certifications appréciées : AWS Certified Solutions Architect – Professional (et autres spécialités : Sécurité, Data Analytics, Advanced Networking…). Compétences techniques : AWS (S3, Lambda, Redshift, DynamoDB, API Gateway, Step Functions, ECS/EKS…). Infrastructure as Code : Terraform, CloudFormation. CI/CD : Jenkins, GitLab CI, CodePipeline. Conteneurs et orchestration : Docker, Kubernetes. Scripting : Python, Bash, JSON, YAML. Sécurité : IAM, PKI, chiffrement, sécurité applicative et réseau. Atouts : expérience DataLake, environnements distribués, forte culture DevOps et agilité. Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).

Offre d'emploi
Développeur Kotlin AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Développeur Backend Senior pour rejoindre une équipe agile intervenant sur des applications à fort trafic et sur des projets innovants à forte valeur ajoutée. Vous serez amené(e) à travailler sur la conception, le développement, le déploiement et la maintenance de fonctionnalités critiques, tout en garantissant la qualité et la robustesse des solutions mises en place. Vous interviendrez dans un environnement stimulant et multi-clients, avec des enjeux techniques variés : refonte de modules stratégiques, implémentation de connecteurs, gestion de la rétrocompatibilité des APIs, rédaction de documentations techniques et technico-fonctionnelles, et amélioration continue de l’écosystème applicatif. L’environnement technique est moderne et complet : Développement d’APIs en Java / Kotlin avec Spring Boot Infrastructure décrite en Terraform , déployée via GitlabCI sur Kubernetes (EKS) Bases de données Mongo Atlas , AWS DynamoDB , AWS S3 Communication via HTTP , messaging (ActiveMQ, AWS SQS/SNS) et AWS Lambda Suivi et monitoring avec Datadog Build avec Gradle ou Maven Forte culture DevOps : you build it, you run it Ce poste vous permettra de contribuer à des projets structurants dans un contexte multi-fournisseurs, où l’autonomie, la curiosité et l’appétence pour la qualité logicielle (tests automatisés, documentation, monitoring) sont valorisées. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Mission freelance
Devops Confirmé AWS
Vos missions Concevoir, déployer et maintenir des architectures cloud scalables, robustes et sécurisées sur AWS Automatiser les déploiements avec Terraform, CloudFormation ou CDK Gérer les pipelines CI/CD (GitLab CI, GitHub Actions, etc.) Participer à la mise en œuvre de pratiques FinOps, SRE et sécurité Collaborer avec les équipes de développement pour faciliter les mises en production Superviser et optimiser la performance des systèmes (CloudWatch, Prometheus, Grafana) Assurer le support niveau 2/3 sur les environnements cloud et DevOps Environnement technique Cloud : AWS (EC2, ECS, Lambda, RDS, S3, IAM, VPC...) IaC : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Containers : Docker, Kubernetes (EKS) Observabilité : CloudWatch, Prometheus, Grafana Scripting : Bash, Python Méthodo : Agile / Scrum / DevSecOps
Offre d'emploi
Administrateur Systèmes & Stockage
Dans le cadre d’une création de poste stratégique , nous recherchons un Administrateur Systèmes et Stockage , disposant d'une expertise confirmée en stockage SAN / objets et solutions de sauvegarde . Vous interviendrez dans le cadre de la gestion et de l’évolution d’un cloud privé hébergé en propre , supportant des services numériques critiques à l’échelle nationale et européenne. Vous serez responsable du maintien en conditions opérationnelles de l’environnement de stockage et de sauvegarde, et accompagnerez les équipes projets dans la mise en production de nouveaux services, avec un rôle d’assistance et de conseil. Vos missions Superviser les performances de la plateforme de stockage et sauvegarde Concevoir, déployer, documenter et maintenir les briques d’infrastructure SAN / objets / sauvegarde Analyser les incidents, piloter les maintenances curatives et préventives Conseiller les équipes applicatives sur l’intégration des architectures de data dans l’environnement containerisé Participer à la supervision , à la rédaction documentaire (DAT, DEX) et à la mise à jour des référentiels Assurer une veille technologique sur les briques d’infrastructure Contribuer aux projets d’envergure européenne , notamment dans un cadre collaboratif inter-pays Intervenir ponctuellement en datacentre pour opérations critiques Environnement technique Stockage : SAN (2x2,5 Po), vSAN , SCALITY Ring (SproxyD, S3/S3C), stockage objet à très grande échelle Sauvegarde : Avamar / Data Domain (60 Po) Systèmes : Linux (Ubuntu, CentOS, Rocky), Windows Server Virtualisation / Containerisation : Kubernetes , OpenShift , Tanzu , intégration NSX-T Outillage : Git , Jenkins , Puppet , Ansible , Terraform , Packer , Prometheus , Grafana APIs / REST , NoSQL , LDAP , PostgreSQL , MySQL Réseaux : bases solides pour communication avec les équipes backbone/optique et sécurité Langues : anglais technique requis

Mission freelance
DevOps GCP/AWS
Dans le cadre de la transformation et de l’optimisation continue des environnements cloud, notre client renforce ses équipes IT pour améliorer la résilience de ses infrastructures , assurer une gestion efficace du stockage , et garantir la continuité d’activité . L’objectif est de soutenir les opérations critiques à travers des stratégies robustes de sauvegarde , de reprise après sinistre, et d’automatisation avancée des environnements AWS et GCP. Responsabilités principales : Optimiser et automatiser les déploiements d’infrastructure cloud (GCP et/ou AWS). Implémenter et maintenir les solutions de sauvegarde (Commvault, Veeam ou Veritas NetBackup). Gérer les composants de stockage cloud (CloudSQL, Cloud Storage, S3, etc.). Participer à la mise en œuvre des plans de Disaster Recovery et des tests de PRA (Plan de Reprise d’Activité). Collaborer avec les équipes sécurité, réseau et applicatives pour garantir la résilience des systèmes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IS informatique et immobilier
- Recherche un Développeur No Code pour un projet en B2C
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Passage à Payfit en venant d' indy.fr
- Viser l'étranger ?
- Auto entrepreneur: Acre est chiffre d'affaire première année