Trouvez votre prochaine offre d’emploi ou de mission freelance AWS Cloud

Ce qu’il faut savoir sur AWS Cloud

AWS (Amazon Web Services) Cloud offre une suite complète de services cloud pour le calcul, le stockage et le réseautage. Son infrastructure évolutive et fiable prend en charge une large gamme d'applications et de services.

Votre recherche renvoie 446 résultats.
CDI

Offre d'emploi
Expert·e Openstack

Publiée le

50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
Freelance

Mission freelance
Data Engineer

Publiée le
Big Data
IA
Java

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Freelance

Mission freelance
Consultant(e) réseau sécurité - Expert(e) et certifié(e) TUFIN AURORA

Publiée le
Tufin

24 mois
350-700 €
Paris, France
Télétravail partiel
Notre client vient de renouveler les machines Tufin obsolètes et souhaite configurer un module supplémentaire : Secure Change et l'interfacer avec son ITSM (ServiceNOW). Il souhaite également avoir des reporting disponibles dans son outil web PowerBi basé sur l'API Tufin. (exports de préférence en powershell). L'application Tufin est configurée en on-premise sur des appliances Tufin (T-820-worker nodes et T1220-data node) en Aurora. L'objectif est également un accompagnement sur la mise en place de la haute disponibilité et l'ajout du périmètre AWS. Prestation attendue Dans le cadre de cette prestation, le prestataire aura pour mission de : - Etablir les workflows avec Safran pour les demandes suivantes : • ouvertures/fermetures de flux réseaux • mises à jour de groupes de sécurités sur les équipements • vérifications de flux réseaux • extract de règles pour une application/service donné - Interfacer ces workflows avec l'ITSM du groupe (ServiceNOW) et le module SecureChange de Tufin. - Mettre à disposition des exports basés sur l'API Tufin. Le but est de construire des KPI (nombre de demande par jour/semaine, nombre de règles modifiées, nombre d'objets, nombres d'objets dupliqués) et construire ces rapports PowerBI basés sur ces exports. - Mettre en place la migration du RUN Tufin vers une équipe dédiée Run N-1 et N-2 actuellement supporté par les experts N-3. Rédaction de document d'exploitation, arbre de décision, aide à la rédaction d'offres de service telle que : création de compte, demande d'export, etc. - Supporter notre client dans l'exploitation du module SecureTrack en proposant des améliorations et/ou des best practices de l'éditeur. - Support à l'ajout des équipements réseaux AWS sur Tufin. Livrables • Les workflows (de préférence sous MS visio) • Les documents demandés par l'équipe SNOW pour l'interfaçage des 2 applications (contenant le nom des champs des formulaires SecureChange par exemple) de type contrat d'interface • Les guides d'exploitations de SecureChange et SecureTrack destinés à l'équipe de RUN N-1 et N-2 sous format word et pdf. • Les exports (dont le/les script/scripts) et les rapports pour les KPI sous PowerBI • Support de formation à destination des référents Réseaux expert N-1/2/3 (sous PPT) Tous les documents (sauf contre-indication) devront être rédigés en Français ET en Anglais. Les prestations ci-dessus devront être réalisées à partir du 01/03/2024 et se terminer au plus tard le 30/09/2024.
Freelance
CDI

Offre d'emploi
chef de projet technique - move to cloud

Publiée le
Azure
CI/CD
Pilotage

6 mois
Paris, France
Télétravail partiel
Appel d’offres – Chef de Projet Move To Cloud (Technico-Fonctionnel) 1. Contexte de la mission Dans le cadre d’un programme de transformation numérique, notre client, une mutuelle , lance un projet de migration Move To Cloud portant sur un périmètre d’environ cinquante applications . L’objectif principal est le pilotage opérationnel de la migration des applications vers le cloud, sans mission d’urbanisme ni de conception d’architecture. 2. Objectifs de la mission Le Chef de projet Move To Cloud interviendra sur : Le pilotage global du projet de migration des applications La coordination des équipes techniques et métiers Le suivi des plannings, des risques et des livrables La gestion des mises en production Le reporting projet auprès des parties prenantes 3. Périmètre et responsabilités Pilotage de projets de migration Move To Cloud (environ 50 applications) Coordination des différents acteurs (équipes infra, applicatives, métiers, prestataires) Organisation et animation des comités projet Suivi des processus de mise en production Supervision des chaînes CI/CD Suivi de la performance et de la stabilité via des outils de monitoring (Dynatrace ou équivalent) Gestion des risques, dépendances et arbitrages Documentation et communication projet Nota : Aucun travail d’urbanisme ou d’architecture n’est attendu. Le poste est orienté exclusivement pilotage et coordination . 4. Profil recherché Compétences et expériences Chef de projet technique confirmé Expérience avérée dans le pilotage de projets Move To Cloud sur un volume significatif d’applications Expérience sur Azure ou autre environnement cloud (AWS, GCP) Bonne compréhension des environnements techniques applicatifs Maîtrise des processus de mise en production Connaissance des pratiques CI/CD Expérience avec des outils de monitoring (Dynatrace ou équivalent) Environnement Une expérience dans le secteur de l’assurance ou de la mutuelle est un plus (non bloquant) Anglais technique requis
Freelance

Mission freelance
Un Expert Senior Dynatrace sur Nanterre

Publiée le
Dynatrace

6 mois
290-400 €
Nanterre, Île-de-France
Télétravail partiel
recherche pour l'un de ses clients Un Expert Senior Dynatrace sur Nanterre Nous recherchons un Expert Senior Dynatrace pour renforcer le dispositif d’observabilité PostgreSQL au sein du groupe Performance Applicative Mission : Expertise Dynatrace Managed/SaaS pour la surveillance et la performance des bases PostgreSQL (métriques, traces, logs, dashboards, alerting). Support N3, diagnostic et prévention des incidents, industrialisation instrumentation, accompagnement projets. Compétences clés : Dynatrace Managed/AppMon (?2 ans), PostgreSQL/pgwatch. OpenTelemetry, Linux (RHEL/CentOS), DevOps (GitLab, Jenkins). Connaissances Kubernetes/OpenShift, AWS (souhaitées). Jira/Confluence, ServiceNow ITBM, anglais technique.
Freelance

Mission freelance
Expert Cybersécurité GenAI (H/F)

Publiée le
GenAI

3 ans
Île-de-France, France
Télétravail partiel
L'entité est composée d’une communauté d'experts en charge de la cybersécurité des données utilisées dans le Cloud, IA, BigData, Blockchain… A ce titre une expertise en cybersécurité sur ces domaines, fixe les objectifs stratégiques de maîtrise des risques, mise en place des initiatives des pôles métiers, assure une cohérence générale dans une logique d’optimisation et de mutualisation des moyens. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. Missions : - L'assistance sécurité des centres de compétences en charge de la cyber sécurité autour des sujets Gen-IA - La sécurité détaillées relatives à l'implémentation et aux usages des technologies et services des fournisseurs (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML) - La production de dossiers de sécurité et le support aux développements et opérations mis en place par les Centres de Compétences, en France, ainsi qu'à l'international - L'assistance sécurité des projets Gen-IA en assistant les Business Units & ServiceUnits (architecture, normes, standards...) Environnement Agile Environnement anglophone 2 - Livrables attendus : - Livrables documentaires sécurité (dossiers de sécurité, "blueprints", dossiers d’analyse des risques et d’identification des mitigations/contre-mesures associés, dossier de recommandation d'architecture sécurité, etc.) à destination des entités France et International, - Dossiers de consolidation des exigences et spécifications sécurité en déclinaisons des User-Stories technico-fonctionnelle, - Revue sécurité du code des composants logiciels développés par les centres de compétences et assistance sécurité, - Chapitre sécurité des livrables documentaires propres aux projets (recommandations, politiques, standards, DAT, DAH, LLD, HLD...), - Supports de remontées des moyens à des fins de restitution - Reporting & indicateurs Les expertises attendues : • Sécurité opérationnelle sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML • Maîtrise des outils de DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview • Expertise sur la sécurisation des tenants Azure, souscriptions, RBAC, MFA, Conditional Access, Privileged Identity Management • Expérience terrain sur le design et le déploiement de contrôles de sécurité dans des environnements AI hybrides • Connaissance des risques spécifiques liés aux LLM et aux services GenAI (prompt injection, data leakage, model poisoning) • Références : missions pour des groupes bancaires et industriels sur la sécurisation de plateformes GenAI Microsoft • Compétences complémentaires : scripting (PowerShell, Python), analyse de logs, automatisation de contrôles de sécurité 3 - Expertise(s) / technologie(s) : 1. Amazon Web Services ( AWS ) 2. MS Azure
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance
CDI

Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)

Publiée le
Datadog

1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales : 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
CDI

Offre d'emploi
Ingénieur Cloud/DevOps H/F

Publiée le

46k-60k €
75001, Paris, Île-de-France
Ingénieur Cloud/DevOps H/F - Paris Experis recherche des Ingénieurs Cloud/DevOps (H/F) pour différents clients grands comptes en Île-de-France. Vos missions: Participer à la conception, la mise en œuvre et la gestion des infrastructures Cloud (AWS ou Azure) Automatiser le déploiement et la configuration des environnements via Ansible/Terraform Administrer et orchestrer des clusters Kubernetes (EKS, AKS…) Implémenter les CI/CD (GitLab CI, Azure DevOps, Jenkins…) Assurer la fiabilité, la sécurité et la scalabilité des plateformes Cloud Collaborer avec les équipes de développement, sécurité et réseau
Freelance

Mission freelance
Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation Node

Publiée le
Node.js

12 mois
380-440 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation NodeJs pour l’un de nos clients situé vers La Ciotat. Mission : Au sein de l’équipe Test & Validation logicielle et dans un contexte international (anglophone), vos responsabilités seront les suivantes : - Participer aux réflexions quant aux stratégies de tests déployées - Rédaction de scenarii de test - Développement des tests automatisés (tests d'intégration, test de perfs, de bout en bout sur l’ensemble de la pyramide de test…). - Exécution des campagnes de tests - Intégration de vos tests à une chaîne CI/CD - Analyse des incidents et des anomalies en lien étroit avec les développeurs - Suivi de correction Profil : Idéalement ingénieur de formation, vous justifiez d’au moins 5 ans d’expérience, dont 3 en tant que testeur technique / automatisation. Vous maitrisez impérativement le développement Node (et donc JavaScript / TypeScript) ainsi que le framework de test Mocha ou Gherkin (voire Jest, Cypress ou Playwright ) Vous disposez par ailleurs de bonnes connaissances Cloud, idéalement AWS (ou à défaut Azure ou GCP) ainsi qu’une solide culture DevOps.
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
IT ENGINEERING MANAGER

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

12 mois
580-600 €
Île-de-France, France
Télétravail partiel
Engineering Manager / Head of Engineering / Lead Technique expérimenté , capable d’apporter structure, cohérence et excellence technique dans un contexte digital multi-équipes (squads internes et prestataires). Le profil doit allier expertise technique solide , leadership naturel et vision d’ingénierie moderne orientée qualité et productivité. Expérience et parcours 8 à 12 ans d’expérience dans le développement ou l’architecture logicielle, dont au moins 3 ans en management technique ou en direction d’équipes de delivery . Expérience confirmée dans un environnement web / digital à fort trafic ou produit SaaS. Habitude de travailler dans un modèle d’équipes agiles multi-squads (internes + externes). Solide expérience dans la mise en place de standards techniques , d’ outils CI/CD , et dans la structuration d’organisations d’ingénierie . Compétences techniques clés Langages & frameworks : TypeScript, Node.js, React (niveau expert) ; Python apprécié. Architecture logicielle : Clean / Hexagonale / modulaire ; maîtrise des Design Patterns. CI/CD & DevOps : GitHub Actions, AWS CodePipeline, infrastructure AWS (EC2, Lambda, S3, CloudFront…). Outils : GitHub, Jira, Confluence, Google Workspace. Connaissance approfondie de l’ intégration continue , du testing (unitaires, intégration, E2E), et des bonnes pratiques d’ingénierie logicielle .
Freelance

Mission freelance
Cloud GenAI Architect h/f

Publiée le
Cloud
IA Générative

3 mois
450-760 €
Paris, France
Télétravail partiel
Contribuer aux travaux d’architecture d’entreprise (EA) au niveau Groupe. Participer à la définition et à l’évolution du Cloud & GenAI Architecture Blueprint. Apporter une expertise transversale sur les technologies Cloud (Azure / GCP / AWS) et les approches GenAI (LLM, RAG, vector DB, sécurité, gouvernance). Évaluer les solutions, produire des synthèses, recommandations et documents d’architecture. Interagir avec les équipes globales : IT Strategy, Cloud, Data, Security, métiers. Vulgariser et synthétiser les enjeux pour les dirigeants et parties prenantes.
Freelance

Mission freelance
[LFR] DBA post gre SQL, Expérimenté à Paris - 1104

Publiée le

10 mois
450-590 €
Paris, France
Contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, l’entreprise investit de manière importante dans son système d’information, notamment dans son infrastructure qui est considérée comme clé dans la transformation vers le digital et l’agilité nécessaire à son développement. Objet de la prestation La prestation se fera au sein des Database Administrators du département Infrastructure. Les administrateurs de bases de données ont pour principales activités d’assurer l’architecture, le build et le maintien en condition opérationnelle des bases de données. Ils accompagnent les équipes de développement et d’infrastructure dans l’optimisation, la mise à niveau et la résilience des environnements de leur périmètre. Au-delà de son rôle de DBA, il travaille en collaboration avec les autres équipes « Transversal Governance & Production Excellence » sur le build des projets et services et pour le suivi de certains services. Dans le cadre d’un remplacement et d’un contexte cloud first (Azure/AWS), les DBA ont besoin de renfort afin de travailler sur le design des solutions on-premises et cloud. La prestation se fera donc au sein de l’équipe DBA avec une priorité sur l’accompagnement des projets des équipes de développement. Il devra, après une période d’adaptation, participer aux astreintes. Il aura un rôle de contact privilégié avec les équipes basées en Belgique et devra prévoir des déplacements réguliers sur Bruxelles. Responsabilités : · Travailler en environnement de haute disponibilité · Travailler sur des environnements virtuels · Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS · Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. · S’intégrer aux process agiles des équipes de développement de son périmètre. · Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes · Être impliqué dans l'étude concernant l'avenir des actifs infra. · Contribuer à la transformation de l'infrastructure informatique chez l'entreprise, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). · Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Les points clés auquel le candidat doit répondre à minima · Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA · Expérience sur du réseau Azure ? 4 ans · Expérience sur du réseau AWS ? 2 ans · Astreinte 1 semaine/2 ou 3 · Niveau d'anglais B2 minimum obligatoire · Télétravail : tous les lundi et mardi, un vendredi sur 2 · Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate Profil recherché : · Expérience solide en tant que DBA PostgreSQL en environnement de production · Maîtrise des outils d’automatisation (Ansible, Git, scripts Shell ou Python) · Expérience avec PostgreSQL sur Azure (Flexible Server, PaaS, supervision Azure Monitor) · Esprit DevOps, rigueur dans l’automatisation et la documentation · Environnement technique moderne (cloud Azure, infra as code, supervision centralisée), équipe solide et projets à fort impact Les principales activités sont : · Étudier des solutions techniques pour améliorer ou mettre en place des services d'infrastructures · Comparez plusieurs scénarios et faires des recommandations · Rédiger des documentations techniques (documents de conception HLD et LLD) · Contribuer à la construction des solutions d'infrastructure · Conseiller, proposer et valider l'infrastructure à instancier dans les projets métiers · Déployer les infrastructures proposées avec les Delivery Center applicatifs · Transmettre les besoins des Delivery Center Applicatifs aux experts des périmètres concernés Compétences techniques : 1. PostgreSQL : Maîtrise de l’installation, configuration, mise à jour et sécurisation de PostgreSQL Séniorité : Avancé | Obligatoire : Oui 2. PostgreSQL : Optimisation des performances (analyse des plans d’exécution, tuning des requêtes, indexation) Séniorité : Avancé | Obligatoire : Oui 3. PostgreSQL : Sauvegarde et restauration (pg_dump, pg_basebackup, pgbackrest, etc.) Séniorité : Avancé | Obligatoire : Oui 4. PostgreSQL : Gestion des extensions (PostGIS, pg_stat_statements, etc.) Séniorité : Avancé | Obligatoire : Oui 5. Scripting (Bash, Python, PowerShell) pour automatiser les tâches Séniorité : Avancé | Obligatoire : Oui 6. Connaissance des systèmes Linux/Unix (Red Hat, Debian, etc.) Séniorité : Avancé | Obligatoire : Oui 7. Surveillance avec des outils comme Zabbix, Prometheus, Grafana, ou OEM Séniorité : Avancé | Obligatoire : Oui 8. Sécurité des bases de données (gestion des rôles, audit, chiffrement) Séniorité : Avancé | Obligatoire : Oui 9. Expérience avec les environnements cloud (AWS RDS, Azure Database) Séniorité : Avancé | Obligatoire : Oui 10. Azure databases PaaS services Séniorité : Avancé | Obligatoire : Oui 11. AWS databases PaaS services Séniorité : Avancé | Obligatoire : Non 12. Microsoft Certified: Azure Database Administrator Associate Séniorité : Oui | Obligatoire : Oui Type de projet (support / maintenance / implementation /…) : Deploiement d’infra Type de prestation (Client / Hybrid / Remote) : Hybrid (2,5J TT) Les astreintes (HNO, etc.) : oui La possibilité de renouvellement (oui/non) : Oui
Freelance
CDD

Offre d'emploi
NV - Expert NSX-T ACI

Publiée le
Cisco ACI
Cloud
Data Center

3 mois
Paris, France
Télétravail partiel
Bonjour Je recherche un expert sur NSX-T et Cisco ACI. L'expert réseau et cloud confirmé (8+ ans) doit etre capable de piloter des projets d’architecture et de transformation à l’international. Le profil doit maîtriser NSX-T, ACI, l’automatisation (Terraform, Ansible, Python) ainsi que connaitre les environnements cloud (AWS, Azure ou GCP). Compétences obligatoires : Vmware NSX-T Cisco ACI Expériences Data Center Connaissances cloud Bon niveau d'anglais PARLE et ECRIT Démarrage : asap Lieu: Paris avec 2 jours de télétravail par semaine Durée : 3 mois renouvelable Pour tout intéret, merci de m'envoyer votre cv à jour. NV

Les métiers et les missions en freelance pour AWS Cloud

Ingénieur·e devops (Cloud)

L’ingénieur·e devops utilise AWS pour automatiser, orchestrer et gérer les déploiements d'applications dans des environnements Cloud, garantissant leur scalabilité et leur disponibilité.

Architecte Cloud

L’architecte Cloud conçoit des infrastructures basées sur AWS, en intégrant des solutions sécurisées, performantes et adaptées aux besoins des entreprises.

Responsable des infrastructures et de la production

Le/ La responsable des infrastructures utilise AWS pour superviser et optimiser les services Cloud, tout en assurant leur bon fonctionnement et leur maintenance.

Ingénieur·e systèmes & réseaux

L’ingénieur·e systèmes & réseaux exploite AWS pour configurer, surveiller et sécuriser les environnements Cloud tout en facilitant les connexions réseau hybrides.

446 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous