Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud
Votre recherche renvoie 330 résultats.
Mission freelance
Directeur de Projet DATA F/H
SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)
12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Offre d'emploi
Lead Developer Angular/Node.js
Avanda
Publiée le
Angular
AWS Cloud
DevSecOps
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients, leader de son activite, un Lead Developer Angular/Node.js H/F pour piloter techniquement une équipe produit et contribuer activement au développement d'une application en environnement cloud AWS. Ce poste est a pourvoir a Lyon, presence sur site de 3 jours par semaine. En tant que Lead Developer vos principales missions sont les suivantes : Définir et porter la stratégie technique du produit (architecture, choix technologiques, bonnes pratiques) Assurer la cohérence et la qualité des développements via des revues de code régulières Accompagner la montée en compétences des développeurs (pair programming, coding dojo, tech meetings) Être le référent technique pour les décisions structurantes et l'arbitrage avec le Product Owner Contribuer activement au développement des fonctionnalités (BUILD) et à la maintenance applicative (RUN) Rédiger et maintenir la documentation technique (architecture, stratégie de tests, bonnes pratiques) Participer aux cérémonies agiles et assurer le suivi des activités via les outils de ticketing Proposer des améliorations continues et assurer une veille technologique active
Offre d'emploi
Tech Lead Fullstack Java / DevSecOps (H/F)
Inventiv IT
Publiée le
AWS Cloud
DevOps
DevSecOps
Levallois-Perret, Île-de-France
Dans le cadre de projets IT structurants, nous recherchons un Tech Lead Fullstack capable de piloter une ou plusieurs squads et de garantir la qualité des livrables dans des environnements exigeants. Vous interviendrez sur des projets long terme avec des enjeux forts autour de la scalabilité, sécurité et performance . Missions : Co-construire la roadmap technique avec les équipes produit et architecture Encadrer une équipe de 4 à 6 développeurs et assurer leur montée en compétence Définir et challenger les architectures techniques Participer activement au développement (hands-on) Mettre en place et maintenir les pipelines CI/CD et pratiques DevSecOps Garantir la qualité du code (tests, revues, bonnes pratiques) Assurer la communication avec les équipes infra, sécurité et produit Suivre la performance des applications (monitoring, SLA) Environnement technique : Backend : Java 17+/21, Spring Boot Frontend : React, Next.js, Angular DevOps : Git, GitLab CI/CD, Terraform, Docker Cloud : AWS (Azure / GCP en plus) Data : PostgreSQL, MongoDB Qualité : Tests unitaires, intégration, E2E
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Mission freelance
Architecte Technique Senior - VMWARE VCF, AWS
CAT-AMANIA
Publiée le
AWS Cloud
VMware
3 mois
400-550 €
Île-de-France, France
Mission : Architecte Technique Senior - VMWARE VCF, AWS Nous recherchons un Architecte Technique confirmé pour renforcer nos équipes d’Architecture Technique. Dans un environnement technologique riche, vous interviendrez sur des projets multidisciplinaires mêlant applicatif, infrastructures IT4IT et activités de RUN Architecture. 📅 Détails de la mission Date de début : 30/03/2026 Durée : Jusqu’au 30/06/2026 (Renouvellement possible) Charge : 100% (Temps plein) Lieu : Hybride (2 jours de télétravail par semaine) Déplacements : Occasionnels Astreintes : Oui 🎯 Vos Objectifs En tant que Référent Architecture Technique (RAARCH) ou contributeur expert, vos responsabilités seront les suivantes : 1. Analyse, Design & Expertise Décliner l’architecture technique et l’infrastructure des solutions (Cloud AWS / On-Prem). Garantir la conformité des solutions vis-à-vis du cadre technologique et des standards de l'entreprise. Proposer des architectures robustes et résilientes (DRP/BCP, haute disponibilité). Réaliser des études d’opportunité, des POC ou des POV pour valider les choix technologiques. 2. Gouvernance & Documentation Produire les livrables d’architecture (HLD, LLD, cadres de référence). Présenter et défendre les dossiers en comités d’architecture. Assurer la veille technologique et l'amélioration continue des référentiels. 3. Support au RUN & Industrialisation Apporter une expertise de niveau 3 sur les incidents critiques. Identifier les axes d'industrialisation ou de fiabilisation (Gestion des problèmes). Contribuer à la roadmap d’évolution des socles d’infrastructure. 🛠 Compétences recherchées Expertises Techniques (Impératives) : Cloud & Virtualisation : Maîtrise de VMware VCF , des environnements hybrides et d' AWS . Infrastructures : Solides connaissances en OS, Stockage, Réseaux et Sécurité. Modernisation : Conteneurs, Orchestration, API Management et Sécurité by Design . Automatisation : Expérience en Infrastructure as Code (IaC) et pipelines CI/CD . Méthodologie & Soft Skills : Connaissance des frameworks d’architecture (ex: TOGAF ). Capacité à vulgariser des sujets complexes pour des décideurs ou des opérationnels. Esprit critique, capacité à challenger le besoin et rigueur documentaire. 📄 Livrables attendus Mise à jour du référentiel d’architecture d'entreprise (normes, standards, cartographie). Dossiers d'architecture technique (DAT) complets et validés. Schémas directeurs et préconisations d'amélioration des processus.
Offre d'emploi
Ingénieur Cloud (AWS)
MSI Experts
Publiée le
Argo CD
AWS Cloud
Gitlab
3 mois
France
Dans un environnement cloud critique, nous renforçons nos équipes pour accompagner la mise en place d’une stratégie de continuité d’activité robuste. L’objectif : garantir la disponibilité des services même en cas d’incident majeur, grâce à une solution de reprise d’activité de type Warm Pilot . Vous interviendrez au cœur d’une plateforme exigeante, où la fiabilité, la sécurité et l’automatisation sont essentielles. Vos missions Au sein d’une équipe technique transverse, vous serez impliqué(e) de bout en bout dans la conception et le déploiement des solutions de reprise d’activité : Analyser et faire évoluer l’architecture de reprise d’activité existante pour des applications critiques Définir et optimiser les mécanismes de bascule (failover), de retour à la normale (failback) et de réplication des données Concevoir des solutions techniques fiables, évolutives et adaptées aux enjeux de continuité d’activité Mettre en œuvre les infrastructures via des pratiques d’automatisation (Infrastructure as Code, GitOps) Collaborer étroitement avec les équipes infrastructure, sécurité et développement pour assurer la cohérence globale des solutions Formaliser les procédures de reprise, les scénarios de test et les processus de validation Identifier les risques techniques, les dépendances critiques et les points de fragilité du système
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Directeur de projet GMAO - DATA - H/F - 93
Mindquest
Publiée le
AWS Cloud
Azure
Gestion de projet
3 mois
Seine-Saint-Denis, France
Objectifs de la mission: - Piloter et coordonner les projets GMAO et Data - Garantir la livraison des projets dans le respect des coûts, délais et qualité - Structurer et optimiser le pilotage des équipes et des activités - Assurer l’alignement entre besoins métiers et solutions IT - Mettre en œuvre et faire respecter la gouvernance Data Périmètre d’intervention: Pilotage de projets: - Définition et suivi de la roadmap projets - Planification et pilotage des activités - Suivi des jalons, gestion des risques et arbitrages Coordination des parties prenantes (métiers, IT, prestataires) AMOA & cadrage: - Animation d’ateliers de cadrage - Formalisation des expressions de besoins - Accompagnement des métiers et de la MOA SI - Supervision des recettes fonctionnelles Management & coordination: - Pilotage d’équipes (développeurs, testeurs, AMOA) - Gestion des plans de charge - Organisation et animation des comités projets - Reporting régulier et remontée des alertes Expertise technique & Data: - Supervision des architectures applicatives et data - Environnements Cloud : AWS, Azure - Suivi des outils analytiques et valorisation des données - Recommandations sur les évolutions techniques Gouvernance & qualité: - Mise en œuvre des standards de gouvernance des données - Contrôle de la qualité des livrables - Respect des méthodologies projets - Maintien de la documentation projet Livrables attendus: - Roadmap et planning détaillé des projets - Reporting opérationnel et tableaux de bord - Expressions de besoins et cadrage fonctionnel - Comptes rendus d’ateliers et comités - Suivi budgétaire et indicateurs de performance - Suivi des jalons et qualité des livraisons Documentation projet à jour
Offre d'emploi
Intégrateur applicatif / DevOps
LEVUP
Publiée le
Ansible
Apache
AWS Cloud
12 mois
Annecy, Auvergne-Rhône-Alpes
Dans le respect des règlementations et des procédures, avec le souci de la qualité et de la rigueur, la mission consistera à déployer, configurer et valider les applications et les infrastructures liées à la plateforme. Gestion des montées de versions ; Gestion des environnements ; RUN applicatif ; Garantir la haute disponibilité et la résilience de la plateforme ; Gestion des environnements cloud ; Garantir l'intégration applicative ; Gestion des certificats, clé, instances web ; Assurer les astreintes et le déploiement applicatif ; Supervision et monitoring ;
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Offre d'emploi
Ingénieur infra cyber sécurité sur Issy Les Moulineaux
EterniTech
Publiée le
AWS Cloud
Azure
Infrastructure
1 an
Issy-les-Moulineaux, Île-de-France
Je recherche pour un de mes clients un Ingénieur infra cyber sécurité sur Issy Les Moulineaux Contexte, description du projet : Au sein de la DSI de la Branche Grand Public et Numérique, la Direction de la Maîtrise des Risques SI est la garante de l’identification et du déploiement des bonnes pratiques en matière de sécurité SI (incluant l’exploitation des outils de cybersécurité, la gestion des identités et des accès, la détection des incidents de sécurité, …), ainsi que de la mise en place des outils de contrôle. Vous serez rattaché à l’équipe « Prévention », équipe à part entière du Centre de sécurité Opérationnelle (CSO), pour contribuer à la mise en œuvre, l’évolution, et l’exploitation quotidienne des outils de cybersécurité. Notamment : • Déployer et opérer les AV/EDR et Scanner de vulnérabilités • Assurer le MCO de ces outils de sécurité • Produire les reporting liés à la gestion des EDR/AV et à la gestion des vulnérabilités • Assurer une veille technologique en matière de méthodes et outils de sécurité • Contribuer au traitement des incidents de sécurité • Assurer l’interfaçage avec le support éditeur pour le traitement des incidents et des évolutions • Définir et implémenter les politiques de scan de vulnérabilités • Comprendre les enjeux et contextualisation des données • Déployer le service de gestion des vulnérabilités et l’implémenter techniquement • Gérer les assets • Gérer les scans (Actif, passif, WAS, AWS, AZURE, Authentifié ou non) • Gérer les rapports d’analyse (Dashboard, Reports) • Structurer l’ordre de correction • Apporter un support aux clients à la prévention et à la remédiation • Exercer une veille technologique pour anticiper les risques et les menaces • Analyser les menaces et les risques dans le contexte • Apporter un appui méthodologique dans les standards actuels de sécurité et qualité • Faire de l’amélioration continue des processus • Assurer la qualité des livraisons de service • Reporter auprès du responsable du service et des clients du service • Rédiger les alertes et incidents de sécurité (tickets ; Jira, ServiceNow) et de rapports d’analyse. Environnement et conditions techniques : • McAfee/Trellix, Eset, Kaspersky, Sophos, Cylance, Sentinel One, Carbon Black, Tehtris… • Qualys, Dynatrace App-Sec, Tenable, CyberWatch, Bitsight, Dependcy Track… • Fortinet, Palo-Alto, Stormshield, Mikrotik… • Nessus, Cyberwatch, Armis, Rapid7… • Linux (Redhat, CentOS, Debian, Windows) • VMware VCD, KVM, OVirt, NSX-T, AWS (déploiement, services, tarification) • Scripting/Développement (bash, perl, python, java) • Supervision (Nagios, ServiceNav, Zabbix, Cloud-watch) • Outils de ticketing (ServiceNow, Jira) Objectifs et Enjeux de la prestation : Apporter un support aux clients internes et projets sur les sujets sécurité des infrastructures ( On-promise et Cloud) : • Assurer un support et une expertise technique sur le choix des contrôles de sécurité adaptés aux besoins BGPN et conformes aux politiques et directives sécurité du client. • Anticiper les besoins des clients et les évolutions de la plateforme. • Apporter l’expertise technique afin de réaliser le déploiement/Accompagner de l’EDR (Tehtris) et l’AV (Trellix) sur l’ensemble du parc serveurs BGPN • Apporter l’expertise technique afin de réaliser qualifier les alertes de vulnérabilités et apporter l’assistance à l’analyse pour l’ensemble du parc serveurs BGPN Compétences Techniques : • Bonne connaissance des EDR/AV (expérience sur un projet de déploiement d’une technologie leader souhaitable) • Bonne connaissance des outils de gestion des vulnérabilités • Bonne connaissance des infrastructures SI globalement • Bonne connaissance des projets applicatifs • Bonne connaissance des pratiques SAFE Livrables : 1. Rédaction des Procédures, modes opératoires, processus, fiches reflexes ... 2. Réalisation des différents reporting (KPI, Dashboard...) Démarrage: 04/05/2026 Durée 01 an
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Mission freelance
Ingénieur Performance Senior - Expert Neoload & Dynatrace - Environnements Cloud (Azure/AWS/K8s)
CAT-AMANIA
Publiée le
AWS Cloud
Dynatrace
Git
6 mois
580-660 €
Île-de-France, France
Dans le cadre d’un renforcement de nos équipes sur des programmes stratégiques, nous recherchons un consultant expert en Tests de Performance. Vous interviendrez sur des architectures complexes (N-Tiers, Web, Cloud) pour garantir la stabilité et la montée en charge des solutions de notre client. Missions principales : Définition et conception de la stratégie de tests de performance. Modélisation de scénarios de charge et scripting via Neoload. Exécution des tirs de charge et monitoring temps réel. Analyse fine des goulots d’étranglement (bottlenecks) à l’aide de Dynatrace. Rédaction des dossiers de tests, procès-verbaux (PV) et restitution des résultats. Gestion du versioning des projets sous GIT. Profil recherché : Expertise confirmée en tests de charge et de performance. Maîtrise impérative de Neoload et Dynatrace (Certifications requises). Solides connaissances des environnements Cloud ( Azure, AWS, TKGS ) et de l’orchestration Kubernetes . Bonne compréhension technique des stacks Java, .NET, SQL et des problématiques réseaux/VMware. Aisance rédactionnelle pour la production de livrables de haute qualité. Outils & Environnement : Neoload, Dynatrace, GIT, JIRA, Azure, AWS, Kubernetes.
Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
330 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois