Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 214 results.
Contractor

Contractor job
data analyst GCP

Published on
BigQuery
Google Cloud Platform (GCP)

3 months
100-400 €
Lille, Hauts-de-France
Hybrid
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Contractor
Permanent

Job Vacancy
Ingénieur CloudOps / DevOps GCP – RUN, Incidents

Published on
Google Cloud Platform (GCP)
Terraform

2 years
Paris, France
Responsabilités principales 1. Gestion des demandes et changements Traiter les demandes techniques, modifications d’infrastructure, évolutions de configuration. Enregistrer, analyser et planifier les changements en respectant les standards opérationnels. Rédiger comptes-rendus, documenter les opérations, produire les REX. 2. Gestion des incidents Diagnostiquer, résoudre et documenter les incidents sur le périmètre GCP. Analyser les causes racines et proposer des actions correctives. Gérer les escalades techniques et la communication vers les parties prenantes. 3. Supervision et intégration opérationnelle Configurer et maintenir alertes, métriques, logs (Cloud Monitoring, Logging, Dynatrace). Intégrer les nouveaux composants dans les systèmes de supervision, sécurité et journalisation. S’assurer que chaque brique est correctement surveillée et conforme aux référentiels internes. 4. Documentation opérationnelle Maintenir DEX, fiches réflexe, procédures incident/change. Garantir la qualité, l’exhaustivité et la mise à jour des documents d’exploitation. 5. Amélioration continue Identifier les optimisations possibles dans les processus RUN. Contribuer à la fiabilisation et l’industrialisation des opérations.
Contractor
Permanent

Job Vacancy
Architecte Cloud GCP & DevOps

Published on
Google Cloud Platform (GCP)
Terraform

2 years
Paris, France
Hybrid
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Contractor

Contractor job
Data Scientist Confirmé / sénior - Temps plein

Published on
BigQuery
Google Cloud Platform (GCP)

6 months
Paris, France
Hybrid
Nous recherchons un·e Data Scientist confirmé·e / senior pour rejoindre une squad Supply Chain composée de 5 Data Scientists. L’objectif est de capitaliser sur des solutions IA déjà existantes et d’étendre leur périmètre afin de répondre à de nouveaux enjeux métiers. Missions principales 💡 Collection Structure & Assortment Concevoir des outils d’analyse avancée et/ou de simulation pour évaluer l’assortiment actuel (showroom, catalogue). Déterminer des quantités d’achat optimales permettant de couvrir les besoins du marché et d’atteindre les objectifs de ventes. 📉 Depletion Path Développer des modèles d’analyse pour identifier les produits à retirer progressivement de l’assortiment retail et définir les canaux de sortie adéquats. Analyser l’historique des assortiments afin de démontrer la possibilité de générer un revenu similaire avec un nombre réduit de références (SKUs). 🔀 Stock Rebalancing Concevoir des approches algorithmiques permettant de relocaliser les stocks sous-performants vers des points de vente à fort potentiel de vente. Responsabilités Explorer, analyser et modéliser des données complexes à fort volume. Construire des pipelines de données robustes et industrialisés. Améliorer et enrichir les briques IA existantes afin de traiter de nouveaux cas d’usage. Interagir avec les équipes métiers pour comprendre les enjeux opérationnels et proposer des solutions pragmatiques. Documenter et partager les résultats de manière claire, structurée et pédagogique.
Contractor

Contractor job
Senior Data Engineer GCP (H/F)

Published on
Google Cloud Platform (GCP)

12 months
550 €
Paris, France
Hybrid
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.
Permanent
Contractor
Fixed term

Job Vacancy
ML Ops

Published on
BigQuery
Google Cloud Platform (GCP)
MLOps

12 months
40k-59k €
400-600 €
Lille, Hauts-de-France
Hybrid
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Contractor

Contractor job
Ingénieur Devops

Published on
DevOps
Google Cloud Platform (GCP)

12 months
400-550 €
Ile-de-France, France
Hybrid
Bonjour, Dans le cadre d'une recherche pour un client au poste d'ingénieur Devops, nous recherchons un(e) consultant disponible ASAP. Intégrer de nouvelles applications dans le cadre de projets métiers. Piloter les projets OPS de bout en bout (étude, planification, réalisation, coordination). Participer à la mise en œuvre de nouvelles infrastructures et migrations (cloud, outils, applicatifs). Assurer la coordination entre les équipes Cloud, Systèmes, Réseaux, DBA et Sécurité. Évaluer et piloter les charges, budgets et risques projet. Rédiger et maintenir la documentation technique et projet (comités d’architecture, livrables OPS, etc.). Contribuer à la mise en conformité (sécurité, DORA, cybersécurité). Côté Run : Garantir la stabilité, la performance et la disponibilité des applications en production. Réaliser les opérations techniques nécessaires aux évolutions, corrections et incidents. Assurer le suivi des problèmes et la mise en place de correctifs durables. Contribuer à la gestion des obsolescences techniques. Améliorer en continu les processus d’exploitation pour réduire les incidents. Suivre les indicateurs de performance (Dynatrace, Kibana, Grafana) et établir un reporting régulier. Coordonner les opérations planifiées et les contributeurs techniques.
Contractor

Contractor job
Senior Data Engineer

Published on
Google Cloud Platform (GCP)
Python
Terraform

210 days
Paris, France
Hybrid
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Contractor
Permanent

Job Vacancy
Consultant GCP - Accompagnement Cloud

Published on
Agile Method
Google Cloud Platform (GCP)

2 years
Paris, France
Hybrid
Responsabilités principales 1. Accompagnement des projets dans GCP Faciliter l’adoption du cloud par les équipes projets. Aider les équipes à structurer leurs besoins techniques et fonctionnels pour l’intégration dans la LZ. S’assurer de la bonne préparation de leurs environnements et prérequis. 2. Animation & coordination Animer les réunions d’avancement, ateliers de cadrage, résolutions de blocages. Synchroniser les parties prenantes techniques et métiers. Prioriser les actions et organiser les chantiers. 3. Suivi opérationnel et pilotage Suivre les actions, dépendances, blocages, ordonnancement, charges. Maintenir un tableau de bord projet clair, à jour, structuré. Assurer une visibilité transverse sur les risques et points ouverts. 4. Support technique Participer aux ateliers techniques, clarifier les solutions possibles, orienter les choix. S’assurer que les projets respectent les standards sécurité, réseau, IAM, supervision. 5. Amélioration continue Produire bilans, synthèses d’itération, plans d’amélioration. Capitaliser sur les retours d’expérience.
Contractor

Contractor job
Administrer moteurs bases de données et plateformes data

Published on
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 year
370-390 €
Tours, Centre-Val de Loire
Hybrid
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Contractor

Contractor job
Cloud Cybersecurity Expert

Published on
Cybersecurity
Google Cloud Platform (GCP)

3 years
Ile-de-France, France
Cloud Cybersecurity Expert, Freelance, 3 ans de contrat initial, IDF, 65% de remote Opportunité attrayante pour un(e) expert en cybersécurité cloud avec plusieurs expériences sur GCP afin de rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants de son marché et de son histoire ! Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de la sécurité du cloud appliquée à l’IA. Principales missions : · Suivi, évolution et maintien de la sécurité d’une Landing Zone Google Cloud · Études & design de solutions de cybersécurité · Implémentations en IaC (Terraform) · Analyses de services Google Cloud (Agentspace, VPC-SC, PSC, Gemini Code Assist, etc.) · Documentation sous Confluence (validation interne obligatoire) · Participation à la comitologie Cloud & Cyber (réunions hebdo) · Support ponctuel RUN / réponse à incident
Contractor
Permanent

Job Vacancy
Lead ML Engineering (26)

Published on
Google Cloud Platform (GCP)
Python

1 year
40k-45k €
400-800 €
Ile-de-France, France
Hybrid
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Contractor
Permanent

Job Vacancy
Administrateur de bases de données H/F

Published on
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 year
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Permanent

Job Vacancy
Data Engineer GCP

Published on
Google Cloud Platform (GCP)
Python

Paris, France
Hybrid
Contexte du poste: Le poste concerne un projet de migration et de refonte de traitements de données vers GCP, dans le cadre d’un projet dans le secteur des télécommunications. Le besoin porte sur : - La migration de traitements Python existants provenant d’une ancienne infrastructure. - Le portage et la restructuration de données. - L’atterrissage des données dans BigQuery. - Le traitement de données froides et chaudes, avec une partie temps réel prise en charge via Kafka. - Les données traitées seraient ensuite consolidées afin de pouvoir être exploitées. Missions principales: - Migrer les traitements existants en Python vers GCP. - Reprendre, adapter et optimiser les pipelines pour un fonctionnement sur BigQuery. - Participer à la restructuration des données et à la mise en place de nouveaux traitements. Assurer le traitement : de données « froides » (batch), de données « chaudes » (temps réel) via Kafka. Contribuer à l’industrialisation, aux tests, et à la mise en production sur GCP. Compétences techniques requises: - Maîtrise de GCP (Google Cloud Platform) - Très bonne connaissance de Python - Très bonne maîtrise du SQL - Expérience sur BigQuery - Connaissances ou expérience avec Kafka Profil recherché: 4 ans d’expérience environ Capacité à reprendre des traitements existants et à les porter dans un nouvel environnement Cloud Rigueur, autonomie et compréhension des enjeux de traitement de données à forte volumétrie Poste en CDI
Contractor

Contractor job
Concepteur Développeur

Published on
BigQuery
Google Cloud Platform (GCP)
Python

12 months
400-550 €
Lille, Hauts-de-France
Hybrid
Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Positionné(e) dans l'équipe RUN / Process Transverses / Tour de Contrôle, il/elle met en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données afin de vérifier la qualité sur l'ensemble des chaînes de valeur monitorées.
Contractor
Permanent

Job Vacancy
Chef de Projet Data (22)

Published on
Google Cloud Platform (GCP)
SQL

1 year
40k-45k €
400-800 €
Ile-de-France, France
Hybrid
Descriptif du poste La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'assurer la coordination de l'ensemble de cas d'usages transverses aux pôles Data. Prestations attendues En interaction avec l'ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité…), la prestation consistera à : Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Management, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au management le suivi de ces sujets transverses Gestion de la coordination inter Data : Point d'entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d'assurer la promotion des travaux

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

214 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us