Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Votre recherche renvoie 109 résultats.
Mission freelance
consultant IBM senior H/F
NITROLABZ By SYNC-DIGITALS SAS
Publiée le
IBM Cloud
6 mois
Suisse
Nitrolabz accompagne les entreprises dans le développement et la concrétisation de leurs projets technologiques. De l’expertise technique à la création de solutions digitales innovantes, nous intégrons les technologies les plus avancées pour booster votre performance et vos ambitions. Aujourd'hui un de nos plus grand client souhaite renforcer son infrastructure cloud interne autour de la solution ODF (OpenShift Data Foundation) afin d’optimiser le stockage et la disponibilité des données critiques. La mission s’inscrit dans un projet stratégique visant à améliorer la résilience, la sécurité et l’efficacité des systèmes de stockage au sein de l’environnement OpenShift. Nous cherchons donc a recruter un(e) consutant(e) IBM senior qui aura pour mission: Titre de la mission : Consultant IBM – Solution ODF sur OpenShift Durée de la mission : [À préciser, ex. 6 mois avec possibilité de prolongation] Lieu : Suisse Missions principales : Déployer, configurer et administrer la solution ODF interne sur OpenShift. Assurer la gestion des différents types de stockage : bloc, file et objet (S3). Garantir la haute disponibilité des services et la continuité des opérations. Mettre en place les stratégies de sauvegarde et restauration adaptées aux différents environnements et exigences métier. Collaborer avec les équipes DevOps et infrastructure pour optimiser les performances et la sécurité du stockage. Documenter les procédures et accompagner les équipes internes sur les bonnes pratiques ODF. Livrables attendus : Plateforme ODF déployée et opérationnelle avec monitoring et alerting configurés. Stratégie de sauvegarde et plan de restauration testés et documentés. Guide de bonnes pratiques pour l’exploitation quotidienne de la solution ODF. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap.
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Offre d'emploi
Expert stockage SAN (H/F)
STORM GROUP
Publiée le
Ansible
Python
Run
3 ans
50k-55k €
450-480 €
Toulouse, Occitanie
Nous sommes actuellement à la recherche d'un expert stockage SAN : La mission consiste à assurer le maintien en conditions opérationnelles des infrastructures de Stockage SAN type Bloc ( par opposition au NAS ou S3 ) . on utilise exclusivement les technologies SAN Cisco et baies de disques PureStorage, la maitrise - ou à minima une première expérience - des solutions SAN Cisco et PureStorage sont donc indispensables. Un travail régulier avec des collaborateurs situés à Porto implique la maitrise de l'anglais. La mission proposée est soumise à une participation au dispositif d'astreintes ( une astreinte toute les 5 à 6 semaines environ ).
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Offre d'emploi
DevOps / Backend Engineer AWS (Node.js / Python) (H/F)
CITECH
Publiée le
AWS Cloud
Node.js
Nosql
6 mois
55k-60k €
450-540 €
75000, Paris, Île-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) DevOps / Backend Engineer AWS (H/F). 🚀 🏨 Notre client est un groupe international reconnu dans le secteur de l’hôtellerie et des services digitaux. Dans le cadre de l’évolution de ses plateformes de relation client et de fidélité, il renforce ses équipes techniques pour concevoir et développer des solutions innovantes pour ses centres de contact. 🚀 Votre mission Au sein d’une équipe produit composée de développeurs backend, DevOps et experts cloud, vous interviendrez sur : Le développement de services backend en Node.js et/ou Python La conception et l’évolution d’API et micro-services L’intégration de solutions omnicanales pour les centres de contact Le déploiement et l’industrialisation sur AWS La gestion et l’optimisation de bases de données SQL et NoSQL La participation à l’amélioration continue et à la fiabilité des services La collaboration avec les équipes produit et opérations Qualifications 🛠️ Environnement technique Node.js et/ou Python AWS (Lambda, API Gateway, S3, etc.) Bases de données SQL et NoSQL 👉 Une expérience cloud AWS est indispensable. Apprécié : Amazon Connect CI/CD et automatisation Architecture micro-services
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
245891/Data engineer Spark Nantes
WorldWide People
Publiée le
Apache Spark
12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Mission freelance
Formateur / Formatrice Cybersécurité – Spécialisation SOC & Blue Team
Tenth Revolution Group
Publiée le
CyberSoc
Security Information Event Management (SIEM)
30 jours
Marseille, Provence-Alpes-Côte d'Azur
pour le le compte d'un client, Nous recherchons un(e) expert(e) en cybersécurité offensive et défensive pour accompagner une promotion d'apprenants passionnés. Votre rôle sera de transmettre les compétences opérationnelles nécessaires pour intégrer un SOC (Security Operations Center) et obtenir la certification CyberOps Associate . Programme pédagogique (5 semaines) La mission est structurée autour de modules hebdomadaires intensifs : S1 : Architecture Défensive – Fonctionnement d’un SOC, outils SIEM et rédaction de règles de détection. S2 : Analyse & Détection – Analyse approfondie de logs, détection d'intrusions et qualification d’incidents. S3 : Forensic & Crypto – Analyse forensique sur environnement Windows et fondamentaux de la cryptographie. S4 : Forensic & Réseaux – Investigation numérique sur Linux et analyse des flux réseaux. S5 : Threat Intel & Consolidation – Gestion des IOC (Indicators of Compromise), mise en pratique réelle et révisions pour l'examen CyberOps Associate
Offre d'emploi
Tech Lead Java DevOps AWS
ASTRELYA
Publiée le
AWS Cloud
Java
Springboot
Hauts-de-Seine, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Dans le cadre de notre développement, nous recherchons pour un client tertiaire un Tech Lead Java DevOps AWS (H/F). Votre mission : Participation à un programme stratégique de refonte d’une plateforme BtoC à l’échelle internationale Environnement Agile Scrum, collaboratif et multiculturel Objectif : concevoir des solutions cloud innovantes, performantes et hautement scalables sur AWS Mise en œuvre des meilleures pratiques DevOps et CI/CD Concrètement, vous allez : Concevoir et développer des applications Java robustes et performantes Mettre en place des architectures microservices cloud-native sur AWS Contribuer activement au développement : codage revues de code tests optimisation des performances Définir, promouvoir et appliquer les bonnes pratiques en matière de développement, qualité et sécurité Encadrer et accompagner les développeurs Collaborer étroitement avec les équipes produit, architecture et data à l’international Votre futur environnement technique : Langages & frameworks : Java , Spring Boot Cloud & infrastructure : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & services : microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & sécurité : Datadog, Prisma Cloud Outils collaboratifs : Jira, Confluence Qui êtes-vous ? Ingénieur de formation ou équivalent Minimum 10 ans d’expérience Au moins 5 ans d’expérience sur des environnements DevOps / AWS Au moins 4 ans d’expérience en tant que Tech Lead Expérience confirmée en Agile Scrum et sur des projets internationaux Goût prononcé pour le partage de connaissances et l’amélioration continue Leadership et capacité à fédérer une équipe Sens de l’écoute et compréhension des enjeux techniques et métiers Communication claire et capacité à vulgariser des sujets complexes Esprit collaboratif et aisance dans un environnement multiculturel Proactivité, adaptabilité et sens de l’anticipation Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#TechLead#Java#AWS
Mission freelance
248629/Développeur full stack PHP Symfony Angular Lille
WorldWide People
Publiée le
PHP
Symfony
3 mois
Lille, Hauts-de-France
Développeur full stack PHP Symfony Angular Lille Savoir lire du code CodeIgniter pour pouvoir migrer sur PHP Contexte de la mission Le développeur Symfony (F0) sera le référent technique principal sur le backend de l’application. Il porte l’architecture, la qualité de code et la robustesse des APIs. Mission principale : - Concevoir et piloter l’architecture backend Symfony - Structurer l’application (bundles/modules …) - Concevoir des API robustes et évolutives pour le front Angular - Garantir la performance, la sécurité et la maintenabilité - Être le point de référence technique pour l’équipe backend - Participer activement au développement des composants critiques - Connaissance du métier industriel - Réaliser du code applicatif selon les US rédigé par le PO et validé par l’équipe de développeurs - Participer au raffinement technique des US en fonction des besoins métiers et SI - Rédiger les specs techniques pour le développement - Proposer des chiffrages réalistes en fonction du contenu des US et de leur complexité - Respecter les règles de codages et process interne à l’équipe de développeurs - Réalise les tests automatiques sur son code modifié - Participe aux tests de performance et d’optimisation de l’application - Réalise des corrections si détection de bugs en PROD ou en recette - Entretenir une veille technologique Responsabilités techniques : ➢ Architecture & conception (F0) : - Définition de l’architecture Symfony - Structuration des domaines métier - Normalisation des échanges API (DTO, validation, sérialisation) - Gestion de la version d’API ➢ Backend Symfony avancé (F0) : - PHP 8 minimum – maîtrise complète - Symfony 8.0 — maîtrise complète - Doctrine avancé (optimisation requêtes et performance) - Sécurité : JWT/OAuth2 - Gestion des erreurs et logs propres - Cache (HTTP / applicatif / Redis) ➢ Qualité & fiabilité (F1) : - Standards de code stricts - Revue de code systématique - Tests unitaires & d’intégration (PHPUnit) - Couverture de tests sur les briques critiques - Gestion de la dette technique Interface avec le front (Angular) (F1) : - Définition claire des contrats d’API - Documentation API (API Plateform) - Gestion cohérente des formats de réponse - Gestion des erreurs exploitable côté front - Support aux devs front sur l’intégration Environnement & outillage (F0) : - Git — stratégie de gestion de branches à plusieurs dév - CI/CD backend - Docker maîtrisé (Kubernetes, AWS, S3) - Monitoring & logs (Datadog) - Outils qualité (Sonarcube) - Bonne compréhension infra (reverse proxy, cache, queue, DB) - Xray (outil de tests) - PostgreSQL - Utilisation de XDebug - Jira Présence aux Events Agile (F1) : - Daily (1 fois/jour), Raffinement technique (2 fois/semaine) - 1 fois / semaine, 1 des évènements suivants : o Poker planning, Backlog refinement, Sprint planning, Retrospective, etc. Objectifs et livrables Savoir lire du code CodeIgniter pour pouvoir migrer sur PHP Compétences demandées Compétences Niveau de compétence PHP Expert codeIgniter Élémentaire angular Avancé Symfony PHP Expert
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Mission freelance
Référent Systèmes & Technologies de Stockage
Signe +
Publiée le
NetApp
6 mois
400-420 €
Paris, France
Assurer le rôle de référent technique sur les infrastructures de stockage, garantir leur disponibilité, leur performance et accompagner les projets d’évolution des plateformes. Missions principales Assurer le rôle d’expert technique sur les solutions de stockage de l’entreprise Administrer et maintenir les environnements de stockage (déploiement, configuration, mises à jour, capacity planning) Participer à la conception et à l’architecture des nouvelles infrastructures de stockage Gérer les incidents complexes et assurer le support niveau 3 Rédiger les standards techniques, procédures d’exploitation et bonnes pratiques Accompagner les équipes projets dans l’intégration des solutions de stockage Assurer la veille technologique sur les solutions de stockage et les architectures associées Compétences techniques requises Expertise sur les technologies de stockage enterprise Maîtrise des solutions : Dell EMC Isilon (PowerScale) NetApp Scality Bonne connaissance des environnements systèmes (Linux / Unix / Windows) Connaissances réseaux liées au stockage (SAN, NAS, protocoles NFS, CIFS, iSCSI, FC) Expérience sur les architectures haute disponibilité et PRA/PCA Connaissance des environnements objet type S3 (fort atout) Profil recherché Expérience confirmée en administration et architecture stockage Capacité à intervenir en expertise et à piloter des sujets techniques transverses Autonomie, capacité d’analyse et de résolution de problèmes complexes Bon relationnel pour coordination avec équipes infra, projets et sécurité
Offre d'alternance
Senior Data Engineer CDI (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
CI/CD
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
DevOps / SysOps (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
DevOps
Terraform
12 mois
400-450 €
Nice, Provence-Alpes-Côte d'Azur
Contexte Rattaché au Responsable Infrastructure, le consultant accompagnera notre programme Move to Cloud en pilotant la construction de nouvelles solutions via l'Infrastructure as Code (Terraform) afin d'industrialiser et d'accélérer nos déploiements. Une présence sur site est requise, avec la possibilité de 2 jours de télétravail par semaine. Le candidat doit résider dans les Alpes-Maritimes. Un niveau d’anglais courant est indispensable afin d’assurer les escalades L3 et le support auprès de nos équipes IT internationales. Missions principales Administration et optimisation de notre infrastructure actuelle AWS (EC2, S3, FSx, DS, Storage Gateway) Déploiement et gestion d’infrastructure via Terraform Mise en place du monitoring datadog Optimisation des coûts AWS via la mise en œuvre de bonnes pratiques FinOps Automatisation des déploiements et standardisation des environnements Support N2/N3, gestion d’incidents complexes et contribution aux projets d’évolution Création et maintien d’une documentation complète (architecture, processus de déploiement, procédures opérationnelles) Partager les connaissances et les meilleures pratiques afin de favoriser une culture d’amélioration continue au sein de l’équipe Missions complémentaires Virtualisation : Administration d'environnements virtualisés VMware/Nutanix Data Protection & Identity : Gestion de l'Active Directory et d'une solution de sauvegarde
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
109 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois