Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 225 results.
Contractor

Contractor job
Tech Lead Data Engineer - IoT / Java & Cloud

Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 months
720-730 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Permanent
Contractor

Job Vacancy
Data Engineer GCP

Published on
BigQuery
Google Cloud Platform (GCP)

6 months
Rouen, Normandy
Hybrid
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Contractor

Contractor job
Développeur SQL (F/H)

Published on
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer

6 months
Lille, Hauts-de-France
Hybrid
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
Contractor

Contractor job
Ingénieur Cloud GCP - Habilitable & Certifié GCP & K8s

Published on
CI/CD
Cloud
Docker

6 months
Paris, France
Hybrid
Ingénieur Cloud GCP intervenant au sein d’un programme de migration on-premise vers Google Cloud dans un environnement Défense. Vous concevez et déployez des architectures GCP, administrez et optimisez des clusters GKE, développez des modules Terraform et contribuez à l’automatisation CI/CD. Vous collaborez avec les architectes pour définir les standards, sécuriser les environnements et documenter les bonnes pratiques. Le poste exige rigueur, autonomie et une habilitation en raison du contexte sensible.
Contractor

Contractor job
DevOps Cloud GCP - Anthos

Published on
Ansible
Google Cloud Platform (GCP)
Kubernetes

12 months
530-570 €
Paris, France
Hybrid
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.
Contractor

Contractor job
Senior Data Engineer GCP MLOps

Published on
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 months
500-550 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Contractor

Contractor job
Administrateur bases de données

Published on
Azure
Datadog
Google Cloud Platform (GCP)

1 year
Lille, Hauts-de-France
Hybrid
Nous recherchons un expert Base de donnée afin de compléter l'équipe Architectes Techniques de la direction Infrastructures et Technologies. La mission se déroulera sur un rythme de 2 à 3 jours par semaine. Les principales missions seront en collaboration avec notre partenaire infogéreur: - Concevoir les architecture Base de Données Oracle sur un environnement vmware (Standard Edition / Enterprise Edition) - Concevoir les mécanismes de réplication et de haute disponibilité et pour une autre partie concevoir l'architecture DRP - Mettre en place l'automatisation pour le déploiement de cette infrastructure Oracle (Infrastructure As Code) - Accompagner les équipes "applications" dans la résolution des incidents notamment de performance - Concevoir les solutions de monitoring Environnement Techniques: - Oracle - Offre PaaS DBsur Azure (PostgreSQL, Mysql, Mariadb, MangoDB) - Azure / GCP / OVH (Vmware) Des connaissances souhaitées dans ces technologies: - Terraform ou Vmware (Cloud Assmbly, Code Stream, Service Broker) - Datadog/Dynatrace/appdynamics/Splunk/Instana
Contractor

Contractor job
Data Engineer GCP (Rouen)

Published on
Google Cloud Platform (GCP)

1 year
400-550 €
Rouen, Normandy
Hybrid
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Contractor

Contractor job
CONSULTANT GCP ANTHOS KUBERNETES

Published on
Google Cloud Platform (GCP)
Kubernetes

1 month
350-500 €
Clipperton Island, France
Hybrid
Expertise confirmée de plus de 5 ans d’expérience sur les technologies Anthos/Kubernetes et DevOps Kubernetes, Connaissance confirmée de Google Anthos Très bonne connaissance de Terraform et Ansible Bonne connaissance de GITLAB-CI Bonne connaissance des outils de virtualisation, de Linux et du scripting Bonne connaissance du travail en mode Agile (SCRUM...) Bon niveau de pratique de l’anglais dans un contexte international Activités attendues : • Mise en œuvre de Anthos/Kubernetes sur les infrastructures Edge computing hybrides avec le cloud public (GCP/). • Déploiement des environnements du dev à la production. • Mise en place de l’automatisation du déploiement des services via Ansible et Terraform • Rédaction de la documentation et montée en compétences des équipes actuelles infrastructure • Support de la solution en production • Assistance aux utilisateurs projets
Contractor

Contractor job
Techlead Data à Paris ou Lille (H/F)

Published on
Cloud
ETL (Extract-transform-load)
Google Cloud Platform (GCP)

3 months
400-600 €
Paris, France
Hybrid
Pour notre client dans le secteur privé, nous recherchons un Techlead Data. Le Tech Lead Data assure le leadership technique sur la conception, le développement et l’optimisation des traitements de données. Il définit les standards techniques (ETL/ELT, DBT, modélisation), veille à la qualité et la performance des livrables, et accompagne les Data Engineers dans la mise en œuvre des pipelines. En collaboration avec l’architecte et les business data analysts, il participe aux choix technologiques, conçoit des solutions robustes et maintenables, et intervient en lead sur les développements les plus complexes, notamment sur les projets stratégiques. Missions principales Leadership technique : définition des bonnes pratiques, encadrement des Data Engineers, veille technologique. Conception & développement : pilotage et optimisation des chaînes de traitement, développement de pipelines complexes, industrialisation et automatisation. Qualité, sécurité & performance : fiabilité, disponibilité, sécurité, mise en place d’outils d’observabilité et de monitoring. Support & accompagnement avancé : formation des équipes, coaching, gestion des incidents critiques (N3), amélioration continue. Interactions inter-pôles : Avec la Data Plateforme : définition des standards, supervision des choix techniques. Avec la Data Valorisation : mise à disposition de données fiables pour la BI. Avec la Data Intégration : cohérence des flux et qualité des données transférées.
Contractor

Contractor job
Senior Ops Engineer - Lille

Published on
AWS Cloud
Docker
Github

6 months
350-450 €
Lille, Hauts-de-France
Hybrid
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Contractor
Permanent

Job Vacancy
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)

Published on
Google Cloud Platform (GCP)
Kubernetes

3 years
10k-26k €
100-280 €
Safi, Morocco
Remote
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
Contractor
Permanent

Job Vacancy
Architecte Solution

Published on
API
AWS Cloud
ETL (Extract-transform-load)

1 year
La Défense, Ile-de-France
Hybrid
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Contractor

Contractor job
Expert Gitlab

Published on
Gitlab
Google Cloud Platform (GCP)
Kubernetes

6 months
Portugal
Hybrid
Mission d'expertise Gitlab : Gitlab (Niveau Expert) : - Administration avancée Gitlab (SaaS - hybride) - Maîtrise des configurations / templates CICD sur Gitlab GCP : - Connaissances GCP (IAM, GKE, VPC, Security ...) - Maîtrise du service GKE (Kubernetes Engine) Kubernetes / GKE (Niveau Expert) : - Deploiement & administration de cluster GKE (helm, rbac, taint ...) - Integration Gitlab Runners sur GKE et gestion de la connectivité Autres compétences : - Terraform - Outils devOps (devbox, kaniko, docker ..)
Permanent

Job Vacancy
Ingénieur DEVOPS

Published on
Ansible
AWS Cloud
Azure

40k-45k €
Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Permanent
Fixed term
Contractor

Job Vacancy
Ingénieur DevOps GCP/MLOps

Published on
AWS Cloud
Google Cloud Platform (GCP)
MLOps

1 year
48k-50k €
480-510 €
Ile-de-France, France
Hybrid
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

225 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us