Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Mission freelance
[LFR] Expertise Dell EMC / purestorage Lyon - 895
Description: Secteur: Transport Expertise dell EMC et purestorage Gestion de bout en bout des infrastructures. Les missions se décomposent comme suit: L’exploitation et l’administration des infrastructures de stockage Assurer le support de niveau N3+ des équipes d’exploitation RUN Gestion des changements et incidents complexes Suivi des évolutions et obsolescence de toutes les infrastructures de stockage POC et BUILD des nouvelles infrastructures liées aux infras de stockage Transfert de connaissance à nos équipes d’exploitation Coordination d’intervenants externes (Constructeurs) Contribution et/ou animation de comités avec les constructeurs Contribution aux projets d’infrastructures Contribution aux projets métiers Conseil et Qualification des projets métiers selon nos solutions techniques Améliorer la QoS notamment par l’automatisation de gestes techniques Assurer de la veille technologique et la sécurité de nos infras de stockage MISSIONS : Elaborer l’architecture et la mise en place des solutions de stockage (disques SAN, partages NAS, partages S3) Documenter les architectures et les procédures d’exploitation Maintenir en condition opérationnelle les infrastructures de stockage (Installation de correctifs, - ---- Support N3+ à l'équipe RUN Stockage pour la résolution des incidents complexes) et optimisation des performances Participer à des appels d’offre en vue de la refonte des infrastructures de stockage Gérer le Capacity Planning et la résilience des infrastructures de stockage Réaliser des tests réguliers de PSI et de PRA Assurer le support et la formation des équipes d’exploitation (offshore/onshore) sur les nouvelles solutions mises en œuvre • Type de projet (support / maintenance / implementation /…) : expertise infrastructure N3 • Type de prestation (Client / Hybrid / Remote) : sur site client et 2 jours en TT • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours
Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Mission freelance
Senior DevOps Engineer (Python, Jenkins, Ansible, Shell, AWS)
Qualifications / Compétences requises Licence ou Master en informatique, génie logiciel ou domaine connexe. Au moins 8 ans d'expérience en tant qu'ingénieur DevOps et au moins 4 ans en projets centrés sur les données. Vaste expérience en développement Python démontrant une solide maîtrise de la création d'applications évolutives. Expertise approfondie des pratiques DevOps et des pipelines CI/CD pour optimiser les processus de déploiement. Expérience en infrastructure as-code. Excellentes compétences collaboratives, avec la capacité à traduire des exigences utilisateurs complexes en solutions techniques efficaces. Bonne maîtrise de l'anglais, car la documentation sera rédigée en anglais et une partie des utilisateurs de la plateforme de données ne parlent pas français. Plus : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience en développement produit agile et en méthodologie Scrum. Maîtrise des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell. AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … DevOps : Jenkins, SonarQube, Conda, Ansible… Logiciels : Python, Rust est un plus.
Mission freelance
Senior Devops
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
Offre d'emploi
DevOps AWS
Missions principales Concevoir, déployer et maintenir les infrastructures AWS (EC2, S3, RDS, Lambda, VPC, etc.). Mettre en place et gérer les pipelines CI/CD (GitHub Actions, Jenkins, GitLab CI, etc.). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, CloudFormation, Ansible). Assurer la monitoring, le logging et l’alerte pour garantir la disponibilité et la performance des systèmes. Implémenter les meilleures pratiques de sécurité AWS (IAM, KMS, Security Groups, compliance). Collaborer avec les équipes de développement pour optimiser les processus de déploiement et l’architecture cloud. Participer à la résolution d’incidents , à la gestion des changements et à l’amélioration continue.
Mission freelance
Sénior Architecte Java/AWS
Missions : Sénior Architecte Java/AWS Localisation : Bordeaux Contexte : Intervient dès les phases amont des projets et s’intègre aux équipes produit pour : Concevoir et faire évoluer l’architecture Cloud (AWS) et applicative des produits, en lien étroit avec les Lead Dev. Garantir la cohérence documentaire entre les spécifications et les réalisations techniques. Apporter un soutien ponctuel aux équipes produit sur des problématiques spécifiques de Delivery et de Run (PoC, analyse de problèmes, optimisation de performance, post-mortem…). Participer aux instances de validation Cyber et Architecture, en collaboration avec l’Architecte Solution du produit, et contribuer à la rédaction des livrables associés. Porter la responsabilité du Low Level Design des architectures Cloud. Accompagner les experts SI des départements. Centraliser et animer les retours d’expérience. Diffuser les patterns, bonnes pratiques et décisions issues. Identifier et remonter les opportunités de capitalisation inner-source, en lien avec les méthodes de Delivery. Certification requise : AWS Certified Solutions Architect – Professional Compétences : Langage : Java Gestion de versions : GIT AWS : EC2, Lambda, ECS, S3, Aurora, IAM, CloudFront, VPC, CloudWatch, CloudTrail, ALB, API Gateway, Cognito, EventBridge, StepFunctions, Transit Gateway, System Manager, Secret Manager, SNS, AppSync, OpenSearch, Transfer Family, WAF, KMS, IA Outils : Windows 11 Office 365 Linux Visual Studio Code Atlassian JIRA Atlassian Confluence GitLab CE/EE, GitLab CI Services AWS Sonar Outils de sécurité (Checkmarx SAST et SCA, …)
Mission freelance
[FBO] Expert AWS - 924
Contexte de la mission Il s'agit de participer activement au move-to-cloud sur AWS entamé par l'un acteur majeur du nucléaire Français. Le consultant devoir veillez au support et à l'accompagnent pour l'utilisation des services AWS dans les contextes des produits Cloud Le ou les profils proposés devront avoir à minima une certification AWS à jour. Objectifs et livrables Mission principale : Documentation d’Architecture Low Level Design (LLD) Code Terraform pour intégration dans la bibliothèque des modules Remédiation suite aux audits ou revues d'architecture AWS et cyber Veiller à l’évolution des services (IaC, CI/CD, observabilité) Accompagner les projets pour leur accostage La maitrise approfondis des modules : AWS EC2 AWS Lambda AWS ECS AWS S3 AWS Aurora AWS IAM AWS Cloudfront AWS VPC AWS CloudWatch AWS Cloudtrail AWS ALB AWS API Gateway AWS Cognito AWS EventBridge AWS StepFunctions AWS Transit Gateway AWS System Manager AWS Secret Manager AWS SNS AWS AppSync AWS OpenSearch AWS Transfer Family AWS WAF AWS KMS
Mission freelance
DevOps Senior AWS - Terraform
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Cloud, nous recherchons un Ingénieur Cloud/DevOps Senior pour renforcer l’équipe en charge des infrastructures et des pipelines CI/CD. Le consultant interviendra sur un environnement AWS complexe (multi-accounts, data, sécurité) et contribuera à l’automatisation, la fiabilisation et l’optimisation des plateformes et des déploiements. 🛠️ Missions principales Infrastructure as Code (Terraform) : conception et industrialisation de modules (VPC, IAM, ALB, RDS, EKS, etc.). Kubernetes (EKS) : déploiement, upgrade, gestion des policies de sécurité (OPA, PSP, NetworkPolicies). CI/CD & DevOps : refonte et standardisation des pipelines (GitLab CI / GitHub Actions / Jenkins), intégration de contrôles qualité (SonarQube, scanners de sécurité, secrets management). Sécurité et conformité : intégration Vault, durcissement des images, scans supply chain (Nexus/Harbor, Trivy, tfsec, Checkov). Observabilité & SRE : mise en place et optimisation de la supervision (Prometheus, Grafana, OpenTelemetry, Datadog/Dynatrace), suivi de SLOs et FinOps. Support et expertise : accompagnement des équipes projets, définition des bonnes pratiques, contribution à la culture DevOps/SRE. ✅ Compétences recherchées Techniques : Cloud : AWS (EC2, S3, RDS, EKS, Lambda, IAM, Route53, etc.) IaC : Terraform (modules réutilisables, best practices), Ansible Conteneurisation & Orchestration : Kubernetes (EKS, Helm, Istio, OpenShift) , Docker CI/CD : GitLab CI, GitHub Actions, Jenkins, ArgoCD, GitOps Sécurité : Vault, scanners de vulnérabilités, durcissement images, tagging et gouvernance AWS Observabilité : Prometheus, Grafana, Loki, OpenTelemetry, Datadog, Dynatrace Langages : Python, Bash, Go (un plus) Soft skills : Capacité à travailler en environnement Agile (Scrum/SAFe). Proactivité, force de proposition et autonomie. Bon relationnel pour accompagner et former les équipes. 🎓 Certifications appréciées AWS Solutions Architect / DevOps Engineer / Security Specialty Certified Kubernetes Administrator (CKA) / Application Developer (CKAD) HashiCorp Terraform Associate
Mission freelance
Tech Lead (Cloud / Symfony / Next.js / Kafka)
CONTEXTE: EXperience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeurs Spécialités technologiques : Back-End ;Front-End, Cloud, APIs Base de données Description et livrables de la prestation Nous sommes à la recherche pour un de nos clients d'un Tech Lead pour superviser une équipe de développeurs et se placer en tant que bras droit du responsable projet. Contexte : Coordination de la communication entre APIs de plusieurs équipes Nous recherchons un profil ayant une posture très affirmée, un excellent niveau de discours et un français impeccable. Expertise souhaitée Le cahier des charges : - Cloud : AWS avec stockage S3 - Base de données : PostgreSQL - API : Symfony 6/7 avec API Platform - Back-for-front : NestJS pour servir le front - Front-end : Next.js (React) - OS : Ubuntu LTS (maîtrise CLI/Linux requise) - Service Mesh : Istio/Linkerd - Event bus : Kafka (migration RabbitMQ → Kafka)
Mission freelance
Tech Lead PHP / Symfony
CONTEXTE Experience: 7 ans et plus Métiers Fonctions : Etudes & Développement, developpement Spécialités technologiques Applications Web Authentification API CRM ERP MISSIONS La mission de tech lead sur le chantier de création d’un référentiel client alimenté par le CRM Freshsales, et doit être consommé par les différentes applications du SI (espace client, ERP, applications internes, etc.). Le système doit permettre des échanges bidirectionnels entre le CRM et le référentiel, garantir la cohérence des données et produire des exports vers d’autres systèmes (notamment via S3 pour l’ERP). À chaque modification effectuée dans le CRM Freshsales, un appel API (via API Gateway, Lambdas, SQS) est déclenché pour alimenter ou mettre à jour le référentiel client. Inversement, certaines données du CRM doivent être mises à jour à partir du référentiel, selon des règles de gestion définies. Travaux réalisés : - Refonte du modèle de données du référentiel client. - Reconstruction complète du référentiel initial (Java) en PHP/Symfony, avec mise en œuvre d’API Platform. - Déploiement du référentiel client dans un environnement AWS ECS. - Mise en place de la communication bidirectionnelle entre le référentiel et le CRM Freshsales via des Lambdas Python (authentification Cognito, SQS, SNS, API Gateway). - Génération automatisée de fichiers CSV à partir du référentiel, avec dépôt sur S3 pour consommation par l’ERP. MISSIONS Travaux en cours : - Proposition et documentation des endpoints du référentiel client pour permettre la récupération des données par les applicatifs client - Initialisation et alimentation des données du référentiel. - Génération et mise à disposition de nouveaux fichiers CSV sur S3. - Participation à des sujets transverses (actuellement en phase de cadrage). Collaboration avec une référente métier pour le recueil et la formalisation des besoins. Validation des choix techniques et architecturaux avec les équipes Ops et Architectes. Mission effectuée en autonomie complète sur la partie développement PHP/Symfony : Mise en place proactive de bonnes pratiques (linter, formatter, organisation du code). Pas de processus systématique de code review sur la partie PHP. Les orientations architecture et déploiement sont définies et validées en collaboration avec les Ops et Architectes. Expertise souhaitée Expertise technique : - PHP /Symfony - AWS - Java
Mission freelance
227208/Expert AWS (certification AWS) Lyon
Expert AWS certification AWS Lyon Mission principale : Documentation d’Architecture Low Level Design (LLD) Code Terraform pour intégration dans la bibliothèque des modules Remédiation suite aux audits ou revues d'architecture AWS et cyber Veiller à l’évolution des services (IaC, CI/CD, observabilité) Accompagner les projets pour leur accostage La maitrise approfondis des modules : AWS EC2 AWS Lambda AWS ECS AWS S3 AWS Aurora AWS IAM AWS Cloudfront AWS VPC AWS CloudWatch AWS Cloudtrail AWS ALB AWS API Gateway AWS Cognito AWS EventBridge AWS StepFunctions AWS Transit Gateway AWS System Manager AWS Secret Manager AWS SNS AWS AppSync AWS OpenSearch AWS Transfer Family AWS WAF AWS KMS Il s'agit de participer activement au move-to-cloud sur AWS entamé par l'un acteur majeur du nucléaire Français. Le consultant devoir veillez au support et à l'accompagnent pour l'utilisation des services AWS dans les contextes des produits Cloud Le ou les profils proposés devront avoir à minima une certification AWS à jour. Goals and deliverables Mission principale : Documentation d’Architecture Low Level Design (LLD) Code Terraform pour intégration dans la bibliothèque des modules Remédiation suite aux audits ou revues d'architecture AWS et cyber Veiller à l’évolution des services (IaC, CI/CD, observabilité) Accompagner les projets pour leur accostage La maitrise approfondis des modules : AWS EC2 AWS Lambda AWS ECS AWS S3 AWS Aurora AWS IAM AWS Cloudfront AWS VPC AWS CloudWatch AWS Cloudtrail AWS ALB AWS API Gateway AWS Cognito AWS EventBridge AWS StepFunctions AWS Transit Gateway AWS System Manager AWS Secret Manager AWS SNS AWS AppSync AWS OpenSearch AWS Transfer Family AWS WAF AWS KMS Expected skills Architecture-Cloud AWS Expert AWS (Amazon) Expert Certification - Aws certified - Solutions Architect Professional Expert
Offre d'emploi
DATA ENGINEER AWS / TALEND
🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.
Mission freelance
Architecte AWS SECURITY
Missions Formaliser et mettre à jour les guides de durcissement de sécurité pour les services AWS. Identifier les changements dans les services AWS pouvant impacter la sécurité. Comparer les pratiques actuelles avec les bonnes pratiques AWS et les exigences Analyser et recommander des solutions pertinentes pour les risques et vulnérabilités identifiés. Documenter et communiquer les recommandations et guides aux équipes concernées. Collaborer avec les équipes Cloud et sécurité pour garantir la conformité et la robustesse des environnements AWS. Environnement technique et fonctionnel Cloud : AWS (services identifiés : Lambda, EC2, S3, KMS, Secret Manager, CloudWatch, EventHub, SQS, SNS). Outils : Documentation technique, systèmes de suivi de sécurité et bonnes pratiques Cloud. Domaines d’expertise : Sécurité Cloud, architecture système, cybersécurité. Profil recherché Compétences techniques et fonctionnelles : Expertise avancée en AWS Security et meilleures pratiques de durcissement. Bonne maîtrise des architectures systèmes et sécurité de l’information. Capacité à identifier et analyser des problèmes de sécurité complexes. Rédaction et formalisation de documents techniques.
Offre d'emploi
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Mission freelance
Data Engineer AWS - La Défense
Un grand groupe international lance plusieurs projets stratégiques autour de la valorisation de la donnée (dashboards internes/clients, vision 360, data products). 🚀 Mission En tant que Data Engineer AWS , vous interviendrez sur : Conception & développement de data pipelines (Python, Glue, Spark) Modélisation et stockage (S3, Iceberg, Redshift) Mise en place de composants réutilisables Accompagnement des équipes locales (co-construction, support technique) Qualité, sécurité (IAM, Lake Formation) et mise en production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.