Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 372 résultats.
Freelance

Mission freelance
Expert GCP - DevOps

SILKHOM
Publiée le
Azure Kubernetes Service (AKS)
Git
Gitlab

3 mois
Paris, France
Vous intervenez en tant que Consultant DevOps au sein de l’équipe infrastructure afin d’industrialiser l’existant et accompagner la transformation vers une infrastructure entièrement pilotée par le code. Vos principales missions seront : - Industrialiser l’infrastructure via Terraform (Azure AD, SSO, outils SaaS, services internes) - Mettre en place des workflows GitOps et structurer les pratiques CI/CD - Participer à la construction du socle cloud GCP (IAM, réseau, sécurité) - Contribuer à la migration des services vers Kubernetes - Définir et appliquer les standards de déploiement sur le cluster - Accompagner les équipes sur les opérations Kubernetes au quotidien - Produire la documentation technique (runbooks, architecture) Vous intervenez sur un périmètre transverse avec un fort impact sur la structuration de l’infrastructure globale. Environnement technique - Cloud : S3NS (basé GCP), migration vers GCP native - IaC : Terraform, GitOps - Identité : Azure AD, SSO, 1Password - Kubernetes : cluster en cours de déploiement - Réseau : multi-sites, tunnels IPSec
Freelance

Mission freelance
Architecte Cloud Public & Cloud de Confiance (H/F) – Multi-cloud (AWS / Azure / GCP) (Paris ou Lyon)

Intuition IT Solutions Ltd.
Publiée le
Architecture
AWS Cloud
Azure

6 mois
Paris, France
Dans le cadre d’une mission stratégique de longue durée, nous recherchons un(e) Architecte Cloud confirmé(e) pour intervenir au sein d’un Cloud Center of Excellence (CCoE) d’un grand compte français. 🎯 Objectif de la mission Contribuer au pilotage et à l’évolution des architectures Cloud Public et Cloud de Confiance, dans un environnement multi-cloud, orienté industrialisation, sécurité, performance et FinOps, au cœur d’une organisation agile à l’échelle (SAFe). 🛠️ Vos missions principales 👉 Définir et faire évoluer la trajectoire d’architecture Cloud commune (AWS, Azure, GCP) 👉 Concevoir et challenger des Landing Zones, architectures sécurisées et industrielles 👉 Rédiger et faire vivre les référentiels d’architecture, NFR et enablers 👉 Contribuer à l’industrialisation (IaC, CI/CD, automatisation) 👉 Participer activement aux démarches FinOps / GreenOps et pilotage par la donnée 👉 Challenger les choix d’architecture des équipes plateformes 👉 Intervenir dans les rituels SAFe (PI Planning, comités d’architecture, cotech) 👉 Assurer le transfert de compétences et la montée en maturité des équipes Environnement technique: Cloud : AWS, Azure, GCP (+ environnements Cloud de Confiance) Infra as Code : Terraform CI/CD : GitLab CI, GitHub Actions, Azure DevOps DevOps & automatisation : Python, scripting, pipelines Sécurité & gouvernance : IAM, réseau, conformité, observabilité Data / FinOps : dashboards, indicateurs, pilotage coûts Profil recherché: ✅ Architecte Cloud senior, avec vision transverse multi-cloud ✅ Maîtrise d’au moins 2 hyperscalers (AWS / Azure / GCP) ✅ Forte expérience en Landing Zones, sécurité, gouvernance Cloud ✅ Très bonne culture DevOps / IaC ✅ Capacité à challenger, structurer, documenter et convaincre ✅ À l’aise dans des environnements Agile / SAFe ✅ Excellent niveau de communication, autonomie et esprit de synthèse 🎓 Certifications demandées: AWS Architect Azure Solution Architect GCP Professional Cloud Architect
Freelance
CDI

Offre d'emploi
Site Reliability Engineer / SRE (Lille - 3j de présentiel par semaine non négociable)

ANDEMA
Publiée le
Datadog
Github
Google Cloud Platform (GCP)

12 mois
50k-65k €
500-530 €
Lille, Hauts-de-France
Contexte de la mission Renforcer l'équipe Opérations et créer une fonction SRE structurante au sein de l’organisation. Nous recherchons un·e SRE senior capable d’incarner et de structurer la pratique SRE, avec une approche hybride RUN → BUILD : Gérer le RUN (gestion des incidents, traitement des tickets, maintien en conditions opérationnelles) Transformer les irritants récurrents en projets d’amélioration Automatiser les opérations pour réduire le volume de tickets et éviter leur réapparition Utiliser les problématiques du RUN comme levier pour impulser des projets BUILD (infra, performance, sécurité, fiabilité) L’objectif : faire du RUN un moteur d’amélioration continue, en collaboration étroite avec les équipes infra et développement. ️ Missions principales Garantir la disponibilité, performance et scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, post-mortem, correctifs, prévention) Structurer et améliorer l’ observabilité et la qualité de service Automatiser les opérations et le support (approche software & IA pour les Ops) Réduire la dette opérationnelle via des chantiers techniques structurants Collaborer étroitement avec les équipes Dev, DevOps et Sécurité Stack & environnement Cloud : GCP Orchestration : Kubernetes Systèmes : Linux Langages & IaC : Python, Terraform, Java Monitoring : Datadog CI/CD : GitHub, GitHub Actions Réseaux & sécurité : WAF, protection DDoS Modalités : Localisation : Lille (accessible en transports) Durée de la mission : longue, plusieurs années
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Freelance

Mission freelance
Dev Back/Ops GCP (H/F)

Comet
Publiée le
Azure
FastAPI
Google Cloud Platform (GCP)

6 mois
400-600 €
Île-de-France, France
Rejoignez une application stratégique et innovante développée pour les équipes Marketing Globales d’un grand groupe international. Cette plateforme permet de mesurer, optimiser et piloter la performance de contenus digitaux à grande échelle . Le produit, actuellement en phase de MVP avec une forte adhésion interne, entre dans une étape clé : son passage à l’échelle internationale . Votre rôle : Au sein d’une équipe pluridisciplinaire (PO, UX, Data Scientist, Dev Full-Stack, Data Engineer) et sous la responsabilité du Tech Lead, vous interviendrez sur la transformation de la plateforme en un système scalable, performant et sécurisé . Vos missions : Monitoring & Observabilité : mise en place de logs, alerting, dashboards et KPIs Optimisation du code : refactoring API, amélioration des modèles de données et endpoints Performance : caching, optimisation base de données, gestion des ressources cloud Sécurité : correction de vulnérabilités, amélioration des mécanismes d’authentification Infrastructure : migration de bases de données, scalabilité des services cloud Stack technique : Cloud & Infra : GCP (obligatoire), Azure (nice-to-have) Backend & IA : Node.js, Python, FastAPI, Vertex AI Frontend (plus) : React Bases de données : PostgreSQL, MongoDB
CDI

Offre d'emploi
Développeur Full Stack Java / Angular (H/F)

WINSIDE Technology
Publiée le
Angular
Google Cloud Platform (GCP)
Java

40k-45k €
Lille, Hauts-de-France
Informations pratiques 📍 Localisation : Lille (59) avec 2 jours de télétravail/semaine ⏳ Mission : longue durée 🚀 Démarrage : ASAP 🌍 Langues : français & anglais Contexte Dans le cadre de la transformation de son système d’information, une entreprise reconnue pour son environnement de travail et son dynamisme digital recherche un·e Développeur·se Full Stack Java / Angular . Intégré·e à une équipe agile , vous participerez à des projets stratégiques liés à la chaîne produit, à la data et à l’optimisation des processus métiers. Vos missions Participer aux rituels agiles de l’équipe (Scrum) Concevoir et développer les user stories (≈ 80 % build) Présenter les livrables et intégrer les retours Diagnostiquer et résoudre les incidents (≈ 20 % run) Proposer des améliorations durables et garantir la qualité des développements
CDI

Offre d'emploi
Développeur Fullstack (Angular, Node.js, SQL) H/F - poste en CDI

Mindquest
Publiée le
Angular
Google Cloud Platform (GCP)
Java

Villepinte, Île-de-France
Dans un contexte d'une création de poste, je recherche un Développeur Full Stack (Angular, Node.js, SQL) pour un poste en CDI au sein d'un des leaders dans le domaine de la location frigorifique, basé à Villepinte Au sein de l’IT Labs, vous intégrerez une équipe d’ingénieurs dans un environnement fortement orienté innovation, automatisation et intégration de systèmes. Vous interviendrez sur la conception et la réalisation de solutions digitales visant à industrialiser et optimiser les processus métiers du groupe.
Offre premium
CDI

Offre d'emploi
Java Software Engineer F/H

Atecna
Publiée le
API
Docker
Google Cloud Platform (GCP)

40k-50k €
Lille, Hauts-de-France
Une communauté Java qui grandit, des projets à forte valeur technique. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Java, animée par Lamine et une équipe d'experts passionné·es en pleine expansion. ⚡ Ton impact au quotidien Tu interviens sur des projets clients à fort enjeu métier. Ce que tu fais Tu conçois et développes des applications Java 17+ / Spring Boot 3+ dans des environnements microservices et cloud Tu définis des API REST robustes et sécurisées (OpenAPI, OAuth2) Tu sais maintenir ou créer une CI/CD, industrialises les déploiements (Docker, Kubernetes) et garantis la fiabilité en production via l'observabilité Comment tu travailles Avec exigence : TDD, tests d'intégration, revues de code, gestion de la dette technique Avec conviction : tu as des opinions techniques, tu sais les défendre et les partager Avec générosité : en interne comme en externe, tu transmets : meetups, conférences, articles, peu importe le format
Freelance
CDI

Offre d'emploi
Développeur fullstack JS - Lille

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Javascript

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - HTML, CSS, Javascript, Node JS, Vue JS, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance
CDI

Offre d'emploi
Devops GCP Terraform

Pickmeup
Publiée le
Google Cloud Platform (GCP)

9 mois
60k-80k €
400-600 €
Paris, France
Notre client est un acteur du paiement digital opérant une plateforme cloud native à forte criticité (disponibilité, sécurité, volumétrie). Dans un contexte de structuration et de montée en charge, il renforce son équipe DevOps sur un environnement full GCP. Description du poste Vous intervenez sur la conception, l’industrialisation et l’exploitation de la plateforme cloud. Vos missions principales : Maintien et évolution de l’infrastructure sur GCP Automatisation via Terraform / Terragrunt Gestion et optimisation des environnements Kubernetes (GKE) Mise en place et amélioration des pipelines CI/CD Suivi de la performance et mise en place du monitoring (Datadog, Prometheus, Grafana) Contribution aux enjeux de sécurité et de fiabilité (SRE)
CDI
Freelance

Offre d'emploi
LILLE - Freelance -TechLead Developer Node.js Kafka - SQL/NoSQL & Cloud GCP (H/F)

HELPLINE
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
NestJS

3 ans
40k-50k €
360-450 €
Lille, Hauts-de-France
Description du poste Vous participerez à la construction et à l’évolution d’un ensemble de micro‑services. Vous interviendrez sur toute la chaîne : conception , développement , supervision , performance et accompagnement au Run . Au sein d'un ensemble de plateformes digitales, et rattaché à une équipe transverse Engineering, nous te proposons d’intervenir en tant que TechLead pour renforcer l'accompagnement des équipes produits dans leur montée en maturité digitale. Les objectifs de la mission : - Parvenir à déployer à l'échelle les bonnes pratiques d'ingénierie, et d'onboarder les équipes sur les cadres/méthodes/outils permettant une homogénéisation de ces pratiques. - Aider à la conception technique des nouveaux produits (ou à leur re-engineering), afin d'obtenir des archi solutions robustes et efficientes. Le focus est mis sur la résilience des applications, le déploiement consistant, les bonnes pratiques d'api, et la qualité. En tant que TechLead, tu connais les nouvelles tendances et opportunités technologiques et tu sais les partager. En relation avec de multiples services, en particulier ceux des plateformes digitales métiers concernées, et de la plateforme Global Tech and Data. Qualifications ⭐ Et si on parlait de vous ? Avec au moins 10 ans d’expérience en développement d'API Kafka, NodeJS, Springboot , vous avez déjà démontré votre capacité à intervenir sur des architectures modernes et des environnements exigeants. Votre expertise De formation technique, tu as acquis une expérience de 10 ans minimum dans le développement (NodeJS, NestJS, Typescript) Tu maîtrises parfaitement le développement d’API, l’utilisation de Kafka, les modèles de bdd (sql, nosql) et la CICD sous github-action Doté d’une sensibilité fonctionnelle, tu analyses et challenges les demandes d’évolutions et leur complexité. Tu es force de proposition sur la mise en œuvre des solutions et correctifs. Tu es curieux, rigoureux et pédagogue Compétences techniques : NodeJS - Confirmé - Impératif Kafka - Confirmé - Impératif Base de donnée (sql/nosql) - Confirmé - Impératif GCP - Confirmé - Impératif Anglais courant requis. TJM MAX 440.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP - SALESFORCE (450€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)
Salesforce

1 an
40k-45k €
320-440 €
Île-de-France, France
● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Bonne connaissance de l'écosystème Salesforce (modèles de données Marketing, Financial Cloud, Data Cloud). ● Ingénierie Data : Maîtrise de SQL et de Python pour le traitement de flux. ● API & Automation : Expérience dans la consommation d’API et l'utilisation d'orchestrateurs (Airfl ow/Composer). ● Soft Skills : Rigueur méthodologique, capacité à comprendre les processus métier bancaires et esprit d'équipe. GCP/DBT Livrables : ● Connecteurs API opérationnels et monitorés. ● Scripts de transformation et de chargement (ETL) documentés. ● Tableaux de bord de suivi des fl ux (alerting et logs de transfert). ● Documentation technique du mapping des objets Salesforce vers BigQuery.
CDI
Freelance

Offre d'emploi
Expert Cloud IA & Cybersécurité

OBJECTWARE
Publiée le
Azure Kubernetes Service (AKS)
DevSecOps
Docker

3 ans
47k-97k €
400-710 €
Île-de-France, France
Mission Dans le cadre de projets stratégiques Cloud & IA Générative au sein d’un grand groupe bancaire, nous recherchons un Architecte Cybersécurité afin d’accompagner les équipes sur les sujets sécurité liés aux infrastructures Cloud, containers et IA. Vos missions Accompagnement cybersécurité des projets Cloud, Containers et IA Générative Réalisation d’analyses de risques et recommandations de sécurité Validation des besoins et baselines sécurité Mise en œuvre du Security by Design Participation à la définition des standards sécurité Contribution à la sécurisation des architectures Kubernetes/OpenShift et Infrastructure as Code Compétences requises Expertise sécurité Cloud (AWS / Azure / GCP) Très bonnes connaissances Kubernetes / Docker / OpenShift Expérience sécurité des containers et images Connaissances IA Générative : LLM, RAG, guardrails, agentique Maîtrise des problématiques OAuth2, JWT, OWASP Expérience en analyse de risques et architecture sécurité Anglais professionnel Compétences appréciées Terraform / Infrastructure as Code DevSecOps Certifications : CISSP, CCSP, GIAC, CKS Profil Architecte Cybersécurité / Cloud Security Architect Expérience en environnement bancaire ou critique appréciée Forte capacité d’analyse et de communication

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

372 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous