Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Votre recherche renvoie 38 résultats.
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Cherry Pick
Publiée le
AWS Cloud
DevOps
Linux

12 mois
600-650 €
Paris, France
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
CDI

Offre d'emploi
Lead Data Engineer

ANDEMA
Publiée le
Python

60k-80k €
Paris, France
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Freelance

Mission freelance
TECH LEAD ( H/F)

Freelance.com
Publiée le
Docker
Java

6 mois
400-550 €
Paris, France
2 jour de TT TJM : 550 euros Dans le cadre d’un programme stratégique de modernisation du SI B2C , nous recherchons un consultant expert technique avec une forte connaissance du secteur Télécom pour intervenir au sein de la DSI B2C / Direction de la Modernisation du SI . 🎯 Contexte de la mission 👉 Mise en place d’une nouvelle solution de billing B2C Mobile & Fixe , basée sur ARBOR/KENAN (AMDOCS) 👉 Objectif : concevoir un système de facturation robuste et évolutif pour les 10 à 15 prochaines années 🧩 Rôle & responsabilités Le consultant interviendra en tant que référent technique et pilote du Delivery . 🔹 Pilotage du Delivery Animation et encadrement d’une équipe de 5 développeurs Estimation des charges, planification et suivi des développements Reporting et pilotage de l’avancement Garantie de la qualité, des délais et des engagements 🔹 Expertise technique Définition des architectures techniques et des outils de développement Revue de code et mise en place des bonnes pratiques Rédaction des spécifications techniques Support technique aux équipes de développement 🛠️ Compétences techniques clés ✅ Java / Backend Java 8+ (Spring Boot, Spring Data, Spring Security, Spring Cloud) JPA / Hibernate Web Services REST & SOAP Maven / Gradle Git ✅ DevOps & Cloud Docker & Kubernetes (Helm, scaling, ConfigMaps, Secrets, volumes) CI/CD & pratiques DevOps S3 Buckets ✅ Data & Middleware Bases de données : Oracle, PostgreSQL, MongoDB ETL / Apache NiFi Kafka (producers, consumers, Kafka Connect, configuration) ✅ Qualité & Tests Tests unitaires et d’intégration : JUnit, Mockito 📡 Pré-requis indispensables 🔴 Très forte connaissance du secteur Télécom 🔴 Expérience sur des systèmes de billing B2C Mobile & Fixe 🔴 Une expérience sur ARBOR / KENAN – AMDOCS est un atout majeur 🌟 Qualités personnelles Leadership et capacité à piloter une équipe Esprit d’équipe et excellent relationnel Autonomie, rigueur et sens des responsabilités Capacité à tenir des engagements dans des contextes complexes et exigeants
Freelance
CDI
CDD

Offre d'emploi
Expert Python / Innovation & Services Cloud

RIDCHA DATA
Publiée le
Architecture
CRM
DevSecOps

1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
CDI
Freelance
CDD

Offre d'emploi
Expert Infrastructures de sauvegarde HDS-HCP-SAN - Sénior

KEONI CONSULTING
Publiée le
Linux
Reporting
VMware

18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE Le service Gestion des infrastructures - infrastructures Serveurs, Stockage et Sauvegardes » a principalement pour mission de définir, mettre en œuvre et faire évoluer les infrastructures Serveurs, stockage et Sauvegarde, de les administrer , d'assurer leur maintien en conditions opérationnelles et d'apporter un support N3. Nous recherchons un profil capable d'administrer au quotidien nos infrastructures de stockage HDS 5600/HCP, PureStorage, ainsi que la partie SAN Brocade. MISSIONS L'administration récurrente : *Assurer le bon fonctionnement des environnements de stockage - Installer, administrer, configurer - Participer aux opérations de montée de version des firmware - Résoudre les problèmes et incidents de niveau 3 , en relation avec les supports constructeurs *Définir les sondes de supervision les seuils associés et consignes adéquates *Mettre à disposition des projets les ressources demandées: ajout de stockage, extension de disque, récupération de stockage,... *Rédiger et tenir à jour les procédures, réaliser les transferts nécessaire vers les équipes de production Il est possible d'avoir a prendre en charge des astreintes et interventions" Livrables attendus "Reporting hebdomadaire d'activités Documentations techniques Tickets incidents / demandes / changements dûment complétés Scripts d'automatisation, répondant aux règles de sécurité Contribuer à la continuité de services " Environnement technique - technologique "Les infrastructures sont hébergées dans un Datacenter composé de 2 salles distinctes (Salle A et Salle B), totalement indépendantes en miroir et un site de reprise distant (Salle C) . Infrastructure Serveurs L’infrastructure Serveur est virtualisée sur une plate-forme ESX et sur des châssis Pseries et Zseries (ces deux derniers n'étant pas dans le périmètre de la mission). L’environnement de virtualisation Vmware est constitué de près de 190 noeuds ESXi en version vSphere 7 et 8, répartis dans 10 Clusters HA/DRS. Les serveurs sont de type Lenovo, de modèle SR650 et SR850 pour la plupart. Cette infrastructure Serveur hébergent environ 13000 VMs utilisant les OS suivants : • 11000 Linux, majoritairement RedHat 7 et 8, • 2000, majoritairement Windows 2019. Une plate-forme IAAS, uniquement sur le périmètre X86, développée en interne basée sur Ansible, permet d’industrialiser les actions de type infrastructures : création/ suppression des machines virtuelles, ajout de disque, de mémoire ou de cpu… Une solution basée sur Prometheus / Grafana permet de collecter et délivrer les indicateurs de suivi de la plate-forme. Infrastructure Stockage Les données sont stockées sur des baies Hitachi et Pure Storage. - Les baies Hitachi de type G1500 et 5600 ont une capacité globale de 8Po environ. Elles sont réparties sur 3 salles en mode campus « A-B » et site distant « C ». Tous les volumes des baies primaires de la salle A sont répliqués de manière synchrone (RPO égal à 0) vers la baie secondaire en salle B ; Tous les volumes de Production des baies du site primaire, et seulement ceux-ci, sont répliqués de manière asynchrone vers les baies sur un site de secours. Ces baies hébergent les données des systèmes AIX, Mainframe et VMware. Les baies Pure Storage sont dédiées pour les environnements Vmware uniquement. Production : 3 baies d’environ 1Po réparties sur 3 sites A, B et C. Les baies A et B sont en active cluster (Actif-Actif), la 3ème baie sur le site de secours est la cible d’une réplication asynchrone. Hors-Production : 2 baies de 1.7Po réparties en salle A et B en active Cluster uniquement." "- 3 baies Hitachi HCP en charge de la présentation de stockage S3 (Archivage, Sauvegardes) Infrastructure San 2 réseaux SAN « Block » cohabitent : '- SAN Brocade DCX-4S (2 en salle A + 2 en salle B) en mode Dual Fabric. (Old) '- SAN Brocade X6-4 (2 en salle A + 2 en salle B) en mode Dual Fabric. (New) ' Un SAN de réplication reposant sur 4 routeurs FCIP Brocade 7800. Ces switchs assurent la communication intersites sur laquelle repose la réplication asynchrone des baies Hitachi (G1500 – 5600) Infrastructure Sauvegarde ' L'infrastructure de sauvegarde est basée sur le logiciel HDPS CommVault. Les données sauvegardées sont stockées et répliquées sur les baies Hitachi HCP. PROFIL : Compétences principales Technologies Stockage de type High End : Hitachi VSP5600 et G1500 Technologies Stockage de type High End : PureStorage X90R4 Technologies Stockage de type stockage tiede : Hitachi HCP SAN Brocade vmware vSphere Sauvegarde (HDPS CommVault) Communication Capacités rédactionnelles : documentation technique, cahier des charges, communication et compte-rendu Capacités relationnelles, écrites et orales (sens de l’écoute et du dialogue, conduite de réunion, négociation) Sens du service et du client Compétences complémentaires Gestion de projet technique OS Windows / Linux
CDI
CDD
Freelance

Offre d'emploi
Expert Infrastructures de sauvegarde COMMVAULT-TSM-NETBACKUP - Sénior

KEONI CONSULTING
Publiée le
IBM Tivoli Storage Manager (TSM)
Linux
VMware

18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE : Le service « Gestion des infrastructures - infrastructures Serveurs, Stockage et Sauvegardes » a principalement pour mission de définir, mettre en œuvre et faire évoluer les infrastructures Serveurs, stockage et Sauvegarde, de les administrer , d'assurer leur maintien en conditions opérationnelles et d'apporter un support N3. Nous recherchons un profil capable d'administrer au quotidien nos infrastructures de sauvegardes Commvault, TSM et netbackup. Une connaissance de la solution HCP d'Hitachi est un plus MISSIONS L'administration récurrente : *Assurer le bon fonctionnement des environnements de sauvegarde - Installer, administrer, configurer - Participer aux opérations de montée de version des outils - Résoudre les problèmes et incidents de niveau 3 , en relation avec les supports constructeurs *Définir les sondes de supervision les seuils associés et consignes adéquates *Mettre à disposition des projets les ressources demandées. *Rédiger et tenir à jour les procédures, réaliser les transferts nécessaire vers les équipes de production Il est possible d'avoir a prendre en charge des astreintes et interventions Livrables attendus "Reporting hebdomadaire d'activités Documentations techniques Tickets incidents / demandes / changements dûment complétés Scripts d'automatisation, répondant aux règles de sécurité Contribuer à la continuité de services " Environnement technique - technologique "Les infrastructures sont hébergées dans un Datacenter composé de 2 salles distinctes (Salle A et Salle B), totalement indépendantes en miroir et un site de reprise distant (Salle C) . Infrastructure Serveurs L’infrastructure Serveur est virtualisée sur une plate-forme ESX et sur des châssis Pseries et Zseries (ces deux derniers n'étant pas dans le périmètre de la mission). L’environnement de virtualisation Vmware est constitué de près de 190 noeuds ESXi en version vSphere 7 et 8, répartis dans 10 Clusters HA/DRS. Les serveurs sont de type Lenovo, de modèle SR650 et SR850 pour la plupart. Cette infrastructure Serveur hébergent environ 13000 VMs utilisant les OS suivants : • 11000 Linux, majoritairement RedHat 7 et 8, • 2000, majoritairement Windows 2019. Une plate-forme IAAS, uniquement sur le périmètre X86, développée en interne basée sur Ansible, permet d’industrialiser les actions de type infrastructures : création/ suppression des machines virtuelles, ajout de disque, de mémoire ou de cpu… Une solution basée sur Prometheus / Grafana permet de collecter et délivrer les indicateurs de suivi de la plate-forme. Infrastructure Stockage Les données sont stockées sur des baies Hitachi et Pure Storage. - Les baies Hitachi de type G1500 et 5600 ont une capacité globale de 8Po environ. Elles sont réparties sur 3 salles en mode campus « A-B » et site distant « C ». Tous les volumes des baies primaires de la salle A sont répliqués de manière synchrone (RPO égal à 0) vers la baie secondaire en salle B ; Tous les volumes de Production des baies du site primaire, et seulement ceux-ci, sont répliqués de manière asynchrone vers les baies sur un site de secours. Ces baies hébergent les données des systèmes AIX, Mainframe et VMware. Les baies Pure Storage sont dédiées pour les environnements Vmware uniquement. Production : 3 baies d’environ 1Po réparties sur 3 sites A, B et C. Les baies A et B sont en active cluster (Actif-Actif), la 3ème baie sur le site de secours est la cible d’une réplication asynchrone. Hors-Production : 2 baies de 1.7Po réparties en salle A et B en active Cluster uniquement." "- 3 baies Hitachi HCP en charge de la présentation de stockage S3 (Archivage, Sauvegardes) Infrastructure San 2 réseaux SAN « Block » cohabitent : '- SAN Brocade DCX-4S (2 en salle A + 2 en salle B) en mode Dual Fabric. (Old) '- SAN Brocade X6-4 (2 en salle A + 2 en salle B) en mode Dual Fabric. (New) ' Un SAN de réplication reposant sur 4 routeurs FCIP Brocade 7800. Ces switchs assurent la communication intersites sur laquelle repose la réplication asynchrone des baies Hitachi (G1500 – 5600) Infrastructure Sauvegarde ' L'infrastructure de sauvegarde est basée sur le logiciel HDPS CommVault. Les données sauvegardées sont stockées et répliquées sur les baies Hitachi HCP. PROFIL Compétences principales Technologies sauvegarde sur base de S3 Outillage de sauvegarde Commvault Outillage de sauvegarde TSM Outillage de sauvegarde Netbackup Architecture de stockage Hitachi HCP Communication Capacités rédactionnelles : documentation technique, cahier des charges, communication et compte-rendu Capacités relationnelles, écrites et orales (sens de l’écoute et du dialogue, conduite de réunion, négociation) Sens du service et du client Compétences complémentaires Gestion de projet technique Virtualisation Vmware OS Windows / Linux
38 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous