Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 1 608 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Expert Database Cassandra

Lùkla
Publiée le
Azure
Google Cloud Platform (GCP)
Grafana

3 ans
57k-72k €
560-710 €
Paris, France
Un grand groupe international du secteur du luxe recherche un Expert Database orienté Cassandra capable de reprendre et piloter un projet stratégique si nécessaire.Dans un environnement exigeant et à forte volumétrie, vous interviendrez comme référent technique sur les environnements NoSQL, tout en conservant une expertise solide sur les bases relationnelles (PostgreSQL, MySQL/MariaDB). Expertise & Pilotage Cassandra (priorité du poste) Concevoir, administrer et optimiser des clusters Cassandra Garantir performance, scalabilité et haute disponibilité Être capable de reprendre un projet existant en totale autonomie Participer aux choix d’architecture et aux évolutions stratégiques Administration des bases relationnelles Assurer la performance et la disponibilité des bases PostgreSQL, MySQL, MariaDB Optimisation des requêtes, indexation et design de schémas Gestion des patchs, upgrades et maintenance corrective et évolutive Haute Disponibilité & Résilience Mise en place de stratégies de sauvegarde robustes Gestion des réplications et solutions de clustering Contribution aux plans de reprise après sinistre (Disaster Recovery) Sécurité & Conformité Mise en œuvre des contrôles d’accès (RBAC) Chiffrement des données (au repos et en transit) Gestion des audits et de la traçabilité Documentation & Amélioration continue Rédaction et mise à jour de la documentation technique Audit des pratiques existantes Collaboration étroite avec les équipes applicatives et infrastructure
CDI
Freelance

Offre d'emploi
Architecte Cloud Azure Senior (H/F)

Gentis Recruitment SAS
Publiée le
Azure

12 mois
Hauts-de-Seine, France
Mission Freelance – Architecte Cloud Azure Senior (H/F) 📍 La Défense (hybride) ⏳ Longue mission (12 mois renouvelables) 💼 Contexte grand groupe 🔎 Le besoin Nous recherchons un Architecte Cloud Azure expérimenté capable de reprendre un périmètre existant et d’accompagner les équipes sur des architectures cloud et cloud-native. 🎯 Tes responsabilités Reprise et évolution d’architectures Azure existantes Design de solutions IaaS / PaaS / Cloud Native Expertise et accompagnement sur AKS / Kubernetes Support aux équipes applicatives (cadrage, design, architecture) Mise en place et promotion des bonnes pratiques (Azure, IaC) Production de livrables d’architecture (HLD, LLD) 🛠 Stack & environnement Azure (expert) Kubernetes / AKS Terraform / Bicep (Infrastructure as Code) Environnement hybride (Azure / AWS / On-Prem) Réseau & sécurité (VNet, RBAC, Key Vault…) 👤 Profil recherché +10 ans d’expérience en architecture IT / cloud Forte expertise Azure + Kubernetes Expérience en reprise de périmètre (contexte critique) Capacité à interagir avec équipes techniques et métiers Très bon niveau de communication (anglais requis) 💡 Pourquoi c’est intéressant Environnement complexe et structurant (~3000 serveurs, multi-cloud) Rôle central avec forte exposition (équipes infra + applicatives) Missions à fort impact (transformation cloud / cloud-native)
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Lyon

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance

Mission freelance
Product Lead Digital - Project Control & Planning (expert EcoSys Hexagon)

INSYCO
Publiée le
API REST
Biztalk
JSON

6 mois
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Product Lead Digital – Project Control & Planning (expert EcoSys Hexagon) . Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/PCP/5056 dans l’objet de votre message. La prestation consiste à intervenir en tant que Product Lead au sein d’une organisation digitale structurée par domaines produits, sur des produits digitaux du périmètre Project Control & Planning. Le rôle couvre l’ensemble du cycle de vie produit et inclut la responsabilité globale des dimensions suivantes : Périmètre général Prestation réalisée en tant que Product Lead au sein d’une organisation digitale structurée par domaines produits, sur des produits digitaux du périmètre Project Control & Planning, avec une responsabilité globale sur l’ensemble du cycle de vie produit Stratégie produit et gouvernance Définition et pilotage de la stratégie produit et de la gouvernance associée Construction, maintien et pilotage des roadmaps produits en coordination avec les Product Owners Priorisation des initiatives en lien avec les parties prenantes métier Delivery et exécution Traduction de la stratégie produit en exécution opérationnelle Organisation et coordination de la contribution des produits aux initiatives du domaine Supervision de la conception, du développement et de l’évolution des produits digitaux en garantissant ergonomie, scalabilité et sécurité Garantie de la bonne delivery des produits dans le respect des budgets et des objectifs (OKR) Suivi des dépendances et des contributions croisées avec d’autres produits Architecture et data Responsabilité de l’architecture des produits digitaux et des flux de données entrants et sortants, conformément aux standards Digitaux Contribution à la stratégie Data via l’alimentation qualitative de la plateforme Data d’entreprise Run, pilotage et amélioration continue Pilotage du run produit, des évolutions et des initiatives Gestion des prévisions financières et ESG liées aux coûts produits et aux initiatives Gestion régulière des risques en coordination avec les équipes dédiées Gestion de l’obsolescence des produits selon les roadmaps plateformes Mise en place et animation du cadre opérationnel du domaine (rituels, comitologie, responsabilités, alignement des parties prenantes) Pilotage de l’innovation produit gouvernée au niveau entreprise Suivi et analyse des indicateurs de performance produit Communication régulière sur l’avancement et les enjeux auprès des équipes de direction et des parties prenantes clés
Freelance

Mission freelance
Tech Lead Azure

█ █ █ █ █ █ █
Publiée le
DevOps
Java
Javascript

94000, Créteil, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Salesforce

Codezys
Publiée le
Apex
Confluence
JIRA

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour la prestation de services Salesforce pour le projet MKP Octopia Le périmètre en charge concerne la plateforme Salesforce MKP Octopia, dont les responsabilités principales incluent, mais ne se limitent pas à : l'onboarding des vendeurs MKP, le support aux vendeurs, la gestion de la base de données CRM, et autres activités associées à l'optimisation des processus commerciaux et communautaires. La mission s’inscrit dans un contexte d’une équipe dédiée composée de quatre spécialistes ayant un profil Salesforce . Cette équipe produit, spécialisée dans la plateforme, intervient pour garantir la cohérence, la performance et l’évolutivité de la solution. Les responsabilités principales de la ressource recrutée englobent : Compréhension des besoins techniques et réflexion autour de l’ architecture de la solution ; Animation de workshops techniques pour le cadrage et la conception, ainsi que la rédaction des spécifications techniques et la réalisation de chiffrages ; Force de proposition pour le choix des solutions et développements adaptés aux besoins techniques détectés ; Participation active à la conception et au développement Apex sur la plateforme Salesforce ; Garantie de la qualité tant en phase de conception que de réalisation, en assurant un livrable conforme aux standards ; Être le point de contact technique privilégié au sein de l’équipe ; Accompagnement à la montée en compétence des membres de l’équipe ; Mise en place et partage de bonnes pratiques , en assurant une veille régulière sur les nouveautés de la solution . Nous recherchons donc un partenaire capable d’intégrer cette mission avec rigueur, expertise et esprit collaboratif, afin d’assurer la réussite de ce projet stratégique pour MKP Octopia.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance
CDI

Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS

Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming

1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Bordeaux

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance
CDI

Offre d'emploi
Intégrateur applicatif / DevOps

LEVUP
Publiée le
Ansible
Apache
AWS Cloud

12 mois
Annecy, Auvergne-Rhône-Alpes
Dans le respect des règlementations et des procédures, avec le souci de la qualité et de la rigueur, la mission consistera à déployer, configurer et valider les applications et les infrastructures liées à la plateforme. Gestion des montées de versions ; Gestion des environnements ; RUN applicatif ; Garantir la haute disponibilité et la résilience de la plateforme ; Gestion des environnements cloud ; Garantir l'intégration applicative ; Gestion des certificats, clé, instances web ; Assurer les astreintes et le déploiement applicatif ;
Freelance

Mission freelance
IT Product Owner Finance Applications (H/F)

Freelance.com
Publiée le
Automatisation
Business Object
Salesforce

1 an
550-600 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe IT dédiée aux fonctions Finance, nous recherchons un(e) IT Product Owner pour assurer le support, l’évolution et la performance de plusieurs solutions financières. En lien étroit avec les équipes métiers (comptabilité, finance), vous garantissez la disponibilité et l’amélioration continue des applications. À ce titre, vous intervenez sur l’ensemble du cycle de vie des outils : support, maintenance, évolution et gestion des projets. Vos principales responsabilités : Assurer le support des applications financières (comptabilité, notes de frais, facturation, fiscalité) Gérer la maintenance et l’administration des solutions Analyser les besoins métiers et définir les plans d’actions associés Rédiger les spécifications fonctionnelles et techniques Piloter les demandes (incidents, changements, évolutions) Assurer l’interopérabilité avec les autres outils du SI Collaborer avec les équipes internes, les métiers et les prestataires Participer aux projets d’évolution et d’amélioration continue Produire la documentation (procédures, modes opératoires, manuels utilisateurs, modélisation des processus…)
Freelance

Mission freelance
Database Engineer

HAYS France
Publiée le
Ansible
Cloud
Linux

1 an
Lille, Hauts-de-France
Dans le cadre du renforcement de son pôle Data & IT, notre client recherche un Database Engineer expérimenté pour intervenir sur la performance, la disponibilité et l’évolution de ses systèmes de gestion de bases de données. Le consultant rejoindra les équipes IT, Data Architects et Développement afin d’apporter son expertise sur les environnements SQL, NoSQL et Cloud. Techniques Très bonne maîtrise des bases SQL & NoSQL. Expertise PostgreSQL, Oracle, Opensearch, Redis ou Snowflake. Connaissance des environnements hybrides : On-Premise & Cloud (AWS RDS, Azure SQL, Aiven). Bon niveau en automatisation : Terraform, Ansible, scripts Shell. Compétence en Python, Go ou Java pour le tooling DB. Solides compétences en administration Linux/Windows orientée performance. Connaissances en sécurité des données (chiffrement, audit, accès).

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

1608 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous