Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 77 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Automatisation H/F

Le Groupe SYD
Publiée le
Ansible
Docker
Github

6 mois
40k-48k €
400-500 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : 🏠 Télétravail : 📝Contrat : 👉 Contexte client : Tu rejoins un acteur majeur du secteur de l’assurance, engagé dans le renforcement de sa résilience opérationnelle numérique, conformément aux exigences réglementaires et aux enjeux de continuité de service. Dans ce cadre, notre client développe une plateforme interne d’automatisation afin d’industrialiser le déploiement, la sécurisation et l’exploitation des infrastructures sur l’ensemble de ses environnements ( dev, pré‑prod, production ). Tu auras pour missions de : Concevoir, mettre en œuvre et faire évoluer les socles d’automatisation Infrastructure as Code. Accompagner les équipes dans l’usage des outillages IaC et CI/CD . Assurer le maintien en condition opérationnelle des plateformes d’automatisation. Mettre en place l’ observabilité des solutions du périmètre. Apporter un support niveau 3 sur les socles technologiques, notamment orientés sécurité. Participer aux projets d’infrastructure et aux rituels Agile (mêlées, échanges d’équipes). Stack technique : Infrastructure as Code (Terraform, OpenTofu), écosystème Terraform (OTF ou équivalent), CI/CD (GitHub Actions), GitHub, Ansible, AWX, Shell, Docker, Kubernetes, gestion des secrets (Vault, OpenBao), stockage S3, PostgreSQL
CDI

Offre d'emploi
Expert·e/ Architecte Backup

Blue Soft
Publiée le

50k-70k €
Paris, France
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
CDI

Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS

Cogniwave dynamics
Publiée le
Data science

Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Freelance

Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp

PROPULSE IT
Publiée le
DevOps

24 mois
250-500 €
Paris, France
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Freelance

Mission freelance
Expert technique DEVOPS Senior

PROPULSE IT
Publiée le
DevOps

24 mois
325-650 €
Paris, France
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Freelance

Mission freelance
Tech Lead Java/ angular (H/F)

ALLEGIS GROUP
Publiée le
Angular
AWS Cloud
DevOps

6 mois
100-550 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) avec une forte culture Cloud/AWS et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Déployer et exploiter les applications sur AWS : Farget, Lambda, S3, CloudFront, RDS/Aurora, API Gateway, VPC. • Automatiser l’infrastructure via IaC (Terraform, CDK), y compris la création, la mise à jour et la maintenance des environnements. • Mettre en place les standards de qualité et de sécurité (tests, scans, bonnes pratiques AWS, IAM, secret management). • Contribuer au monitoring et à l’observabilité (CloudWatch, Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps, AWS et outils d’industrialisation.
Freelance

Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)

Webnet
Publiée le
React

6 mois
500-530 €
Paris, France
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Freelance
CDI

Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)

MGT Conseils
Publiée le
Datadog

1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Freelance

Mission freelance
DevSecOps AWS

Tenth Revolution Group
Publiée le
AWS Cloud

3 mois
160-650 €
Paris, France
Dans un contexte de forte accélération produit et de mise en conformité sécurité , notre client renforce son équipe plateforme avec un DevSecOps AWS senior pour sécuriser et industrialiser ses pipelines CI/CD et ses environnements cloud. Missions principales Concevoir et maintenir des pipelines CI/CD sécurisés (GitLab CI / GitHub Actions / Jenkins) Implémenter une approche Security by Design sur les environnements AWS Déployer et maintenir l’ Infrastructure as Code (Terraform principalement) Intégrer des outils de sécurité dans les pipelines : SAST / DAST Scan de dépendances Scan d’images Docker Renforcer la gestion des secrets & des identités (IAM, Secrets Manager, Vault) Participer à la mise en conformité ISO 27001 / SOC2 / RGPD Travailler en étroite collaboration avec équipes Dev, Sec & Platform Environnement technique Cloud : AWS (EKS, EC2, RDS, S3, IAM, CloudTrail, GuardDuty) CI/CD : GitLab CI ou GitHub Actions IaC : Terraform (mandatory) Conteneurs : Docker, Kubernetes (EKS) Sécurité : Trivy, SonarQube, Snyk, OWASP ZAP, AWS Security Hub Monitoring : Prometheus, Grafana, CloudWatch
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
CDI

Offre d'emploi
Consultant(e) DATAIKU DSS

Hexateam
Publiée le
Dataiku
MySQL
Python

Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
CDI

Offre d'emploi
Ingénieur SysOps H/F

Grafton
Publiée le

50k-60k €
Lyon, Auvergne-Rhône-Alpes
À propos de nous : Fort de plus de 40 années d'expérience en Europe, Grafton est spécialisé dans le recrutement de professionnels qualifiés que ce soit pour des besoins uniques comme pour des projets volumiques. En France, Grafton rassemble une centaine de professionnels du recrutement répartis au sein d'un réseau de 14 bureaux. Ils délèguent quotidiennement du personnel aussi bien en intérim, CDD, CDI qu'en contracting et consulting auprès de plus de 800 clients qui leur font confiance. Missions : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche pour son client un Ingénieur sysops H/F pour intégrer son site situé à Lyon : Contrat CDI Démarrage : ASAP Localisation : Lyon Rémunération : 50 à 60 K€ Vos missions : Implémentation et suivi des bonnes pratiques de sécurité sur l'ensemble des serveurs. Sécurité des applicatifs logiciels : tests de sécurité (pentest) et sensibilisation des équipes de développeurs aux bonnes pratiques. Surveillance des accès, des droits utilisateurs et audits de sécurité réguliers. Maintenance des serveurs Linux (CentOS/Rocky Linux), mise à jour des correctifs de sécurité et suivi des performances. Nettoyage des données , gestion des logs (rotation, archivage) et automatisation des tâches répétitives. Optimisation des performances sur les environnements PHP, MariaDB, ElasticSearch, RabbitMQ, Redis et MongoDB. Mise en place et gestion d'un système de stockage S3 pour les environnements internes et clients. Paramétrage et gestion de GitLab CI et des runners pour les pipelines de déploiement en collaboration avec notre équipe DevOps. Configuration et gestion des serveurs avec Ansible pour automatiser les déploiements et les configurations. Profil recherché : Gestion des serveurs Linux (CentOS/Rocky Linux) et optimisation des environnements techniques (PHP, MariaDB, ElasticSearch, etc.). Automatisation des déploiements avec Ansible et GitLab CI. Minimum de 3 à 5 ans d'expérience et diplôme en informatique ou domaine connexe. Esprit d'équipe, proactivité et rigueur indispensables. #LI-ST1
Freelance

Mission freelance
Data Engineer / Expert DBT Snowflake

CS Group Solutions
Publiée le
DBT
Snowflake

3 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer / Expert DBT Snowflake Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Freelance

Mission freelance
Senior DataOps / DevOps AWS – Terraform

OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Freelance
CDI

Offre d'emploi
Ops Engineer / Ingénieur SRE (H/F)

WINSIDE Technology
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
AWS CloudFormation

1 an
40k-50k €
400-450 €
Lille, Hauts-de-France
Contexte Notre client souhaite renforcer son équipe Accompagnement Résilience . L’objectif : maintenir un équilibre optimal entre performance , fiabilité et maîtrise budgétaire au sein de ses plateformes Cloud. Nous recherchons un Ops Engineer / SRE confirmé (H/F) , capable d’intervenir sur des environnements AWS complexes et orientés résilience. MissionsPilotage et ingénierie de la résilience Participer à la définition, au suivi et au pilotage des SLO / SLI / SLA Réaliser des audits de résilience et présenter les recommandations Contribuer aux analyses d’incidents et aux post-mortems Industrialisation & automatisation Industrialiser les processus de déploiement , exploitation et tests de résilience Concevoir et maintenir des scripts d’automatisation (Bash, Python) Administrer et optimiser les outils de résilience : Gatling, Gremlin, tableaux de bord SLO… AWS & performance Exploiter, optimiser et sécuriser les environnements AWS dans une démarche SRE Challenger les équipes sur les choix techniques / architecturaux Être force de proposition pour l’optimisation performance / coût Livrables attendusLivrables techniques Plateformes et outils de résilience opérationnels Scripts d’automatisation / industrialisation Tableaux de bord SLO, métriques & KPIs Cloud Scénarios de tests de charge et de chaos engineering Documentation Documentation d’exploitation Procédures de résilience Guides d’usage des outils Rapports d’audit & comptes-rendus d’incidents Plans d’amélioration continue Compétences requises Compétences techniques Maîtrise avancée Linux / Unix Expertise AWS , dont : EC2, ECS/EKS, Lambda, IAM, VPC, RDS, S3, CloudWatch Architectures Cloud natives & distribuées Haute disponibilité & résilience Cloud Outils de test de charge : Gatling (ou équivalent) Chaos Engineering : Gremlin (ou équivalent) Observabilité & monitoring : Datadog, Prometheus, Grafana Automatisation & CI/CD IaC : Terraform, CloudFormation Scripts Bash / Python Git & gestion de configuration Méthodologies Approche SRE & DevOps Définition / pilotage SLO, SLI, SLA Pratique d’analyses d’incidents Expérience en environnement agile
77 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous