Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud à Paris
Votre recherche renvoie 110 résultats.
Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional
CELAD
Publiée le
AWS Cloud
Terraform
1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Mission freelance
Ingénieur DevOps AWS
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Azure Kubernetes Service (AKS)
DevOps
12 mois
600-630 €
Paris, France
Contexte La prestation concerne les activités nécessaires à une démarche DevOps chez notre client et l’amélioration de l’usine CI/CD dans notre chaîne de Delivery. L'équipe en charge de ces activités travaille en étroite collaboration avec les équipes sécurité du SI, développement et exploitation sur la mise en place de cette chaîne. L'équipe travaille aussi sur la mise en place de certaines infrastructures d'hébergement, sur les nouveaux projets, en y connectant notre usine logicielle et outils CI/CD mis en place. La mission se déroule au sein de l’équipe DEVOPS. La mission vise ainsi à : Fournir des conseils sur les bonnes pratiques de conception architecturale pour de multiples applications dans le cloud AWS et projets de l'entreprise ; Évaluer les besoins en matière d'applications cloud et formuler des recommandations architecturales pour la mise en œuvre, le déploiement et l'approvisionnement des applications sur AWS ; Contribuer à réduire les cycles de livraison des solutions applicatives via l'automatisation Contribuer à l'amélioration continue de notre usine logicielle (CI/CD). Missions Industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD ; Assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day‑2 Ops, automatisation) ; Piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on‑prem et AWS) ; Réaliser et restituer des études et des PoC ; Documenter l’activité et les process ; Concevoir et maintenir les outils et services ; Collaborer aux projets : conseil, fourniture des éléments nécessaires aux chefs de projet, participation et contribution aux instances des projets ; Collaborer à des projets impliquant une architecture complexe, des systèmes découplés, des interactions entre services gérés par différents acteurs ; Rédiger des Documents d’Exploitation (DEX) ; Assurer le reporting d’activité (fréquences hebdomadaire et mensuelle). Une période de montée en compétence est prévue en début de mission, avec une prise de responsabilité progressive. Outils & Environnement Pipelines DevSecOps : Gitlab, Jenkins, Nexus, Artifactory, SonarQube, Checkmarx, Ansible Administration de clusters Kubernetes Développement Infrastructure as Code (Terraform, CloudFormation) Scripts Python et Bash Cloud provider AWS Méthodologies Agile Scrum et Kanban Concepts de cybersécurité (AppSec, DevSecOps, bonnes pratiques) Objectifs attendus Réalisation et restitution d’études et de PoC Documentation de l’activité et des process Conception et maintien des outils et services Collaboration aux projets et instances Rédaction de Document d’Exploitation (DEX) Reporting d’activité hebdomadaire et mensuel
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Offre d'emploi
Expert Data Cloud
ONSPARK
Publiée le
AWS Cloud
Azure
Docker
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
Offre d'emploi
Développeur Full Stack Angular / NestJS
VISIAN
Publiée le
Angular
AWS Cloud
Azure
1 an
Paris, France
Missions Le prototype devra couvrir 6 fonctionnalités clés, parmi lesquelles : Digitalisation d’un outil Excel cœur métier (chiffrage d’offres) avec : automatisation, amélioration de la maintenabilité (MCO), historisation des données. Fiabilisation des données de comptage : détection automatique d’anomalies, correction, passage de données discrètes à continues. Croisement de référentiels et données existantes (IoT, relevés terrain, performance énergétique) : détection des dérives de performance, harmonisation du portefeuille. Génération automatique de plans de comptage & synoptiques dynamiques : à partir des équipements réels, avec interface de paramétrages pour cas spécifiques. Interface avancée de création de formules métier & performance, orientée utilisateur non technique (notamment pour la production de baselines de prédictions énergétiques). Interrogation des données métier en langage naturel, avec génération de restitutions graphiques exploitables. Le développeur interviendra comme acteur central du prototype, avec une réelle latitude sur : la conception technique front & back (Angular / NestJS – monorepo NX), les choix d’architecture applicative et cloud, la structuration du socle technique en vue d’une industrialisation ultérieure, la priorisation technique quand nécessaire, au service de la valeur métier. Il est attendu qu’il : avance avec peu d’informations initiales, sache aller chercher, structurer et challenger le besoin directement auprès des interlocuteurs métier et techniques, prenne des décisions argumentées et assumées, même hors cadre standard. Outils & Environnement Développement full stack (≥ 3 ans) : Angular NestJS NX / monorepo Maîtrise opérationnelle d’AWS et/ou Azure : capacité à déployer un environnement cloud complet en autonomie. DevOps / DevSecOps : CI/CD, automatisation, bonnes pratiques de sécurité. Traitement, modélisation et exploitation de données IoT. Pratique avancée du vibe coding : orchestration d’agents, accélération du delivery, approche augmentée du développement. Compétences optionnelles mais fortement appréciées : Infrastructure as Code (IaC) sur AWS et Azure via Terraform. Compétences Data sur Azure Fabric : pipelines, lakehouse, modèles sémantiques. Databricks, avec utilisation concrète de notebooks Python. Culture des architectures data modernes et des plateformes orientées événements. Livrables attendus Prototype EMS fonctionnel et démontrable. Socle Angular / NestJS réutilisable et industrialisable. Environnement cloud opérationnel. Pipelines CI/CD. Documentation technique claire. Démos régulières à destination des parties prenantes métier et techniques.
Mission freelance
DBA Oracle - AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle
3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Offre d'emploi
Tech Lead Python- IAGen (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Offre d'emploi
QA Manager (H/F)
ADSearch
Publiée le
AWS Cloud
Azure
ISTQB
Paris, France
Objectif du poste Le Responsable des Tests IT est garant du pilotage de bout en bout des tests fonctionnels sur les produits et projets, en veillant à intégrer la qualité tout au long du cycle de livraison. Vous planifiez, dirigez et exécutez les activités de test, encadrez les ressources QA/Test, et collaborez étroitement avec les Product Owners, Delivery Leads, Business Analysts, développeurs, architectes, équipes support et partenaires externes afin de livrer des versions de haute qualité. Ce rôle comporte également une dimension opérationnelle : démontrer des pratiques de test efficaces, améliorer la productivité, favoriser la réutilisation des artefacts de test et piloter l’amélioration continue des processus QA et de test. Responsabilités principales Pilotage des tests et delivery Piloter et gérer les tests fonctionnels pour les produits/projets/périmètres assignés. Définir le périmètre, l’approche, les plans de test et l’alignement des critères d’acceptation, en s’assurant que les exigences sont testables. Superviser la création, la revue et la maintenance des artefacts de test (plans, scénarios, scripts, preuves). Gérer l’exécution des tests de bout en bout (manuel et automatisé, conforme aux standards). Fournir des reportings sur l’avancement, la couverture et la qualité, incluant la préparation aux mises en production et les indicateurs associés. Gouvernance qualité et amélioration continue Garantir la qualité des livrables QA/test et des artefacts de développement liés aux releases, correctifs, intégrations et projets. Identifier les risques, problèmes, hypothèses et dépendances ; proposer des plans de mitigation et escalader si nécessaire. Contribuer à l’évolution des processus, standards et frameworks QA ; améliorer l’efficacité et la réutilisabilité des tests. Veiller au respect des processus de gestion des anomalies ; piloter le tri, la priorisation et la résolution. Données de test, environnements et UAT Coordonner la planification, la création et la gestion des données de test avec les parties prenantes. S’assurer que les besoins en données et configurations sont identifiés en amont (raffinement des user stories) et intégrés aux pipelines CI/CD si applicable. Piloter les tests d’acceptation utilisateur (UAT), y compris la coordination et l’engagement des parties prenantes. Management des équipes et des parties prenantes Encadrer, coacher et accompagner les analystes QA et testeurs ; identifier les besoins en formation et développer les compétences. Gérer la planification des ressources (internes, distantes et externes). Collaborer avec les équipes Produit, Delivery, Architecture, Développement et Support pour intégrer la qualité tout au long du cycle de vie. Parties prenantes clés Responsables Projet & Delivery Product Owners Business Analysts Équipes QA / Test Équipe QA de développement externalisée Équipes Support Applicatif Release Manager / QA Leads / Responsable Qualité et Tests
Mission freelance
Directeur de Projet DATA F/H
SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)
12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
110 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois