Find your next tech and IT Job or contract Google Cloud Platform (GCP)
What you need to know about Google Cloud Platform (GCP)
Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Contractor job
FinOps Consultant, Freelance, France, 80% de remote
FinOps Consultant, Freelance, France, 80% de remote Opportunité attrayante pour un(e) Consultant(e) FinOps confirmé(e) pour rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants. Vous rejoindrez une équipe en plein développement pour intervenir dans la gestion des coûts des plateformes AWS et GCP où vous pourrez proposer votre propre vision du FinOps Principales missions : - Implémenter et mettre en œuvre la stratégie FinOps - Définir les KPI & Dashboard FinOps - Estimer et optimiser les coûts - Evangéliser les bonnes pratiques et animer des workshops de sensibilisation - Suivre les consommations et établir des prévisions budgétaires
Contractor job
Data Engineer GCP – Freelance (H/F)
Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .

Contractor job
Data Engineer GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.
Job Vacancy
Lead Dev agent IA
Dans le cadre de leur programme notre client recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer les processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. Missions : - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps - Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Assurer une veille technologique pour garantir la pérennité des solutions utilisées
Contractor job
Consultant Power BI Senior – Expert Power BI Premium/GCP (H/F)
Nous recherchons un consultant Power BI Senior pour rejoindre un centre d’excellence BI transverse. ⚠️ Le plus important : besoin d’un senior Power BI qui connaisse le mode Import sur des gros volumes. De plus, la maîtrise du requêtage BigQuery est fortement attendue , cette technologie étant au cœur des traitements analytiques du client . Missions principales Support à l’onboarding de nouveaux projets sur Power BI Premium (bonnes pratiques). Expertise technique durant les développements (audit, optimisation, performance). Support produit sur Premium Capacity. Optimisation des rapports en Direct Query et Import. Mise en œuvre de paginated reports. Administration via Data Gateway et API REST Power BI. Collaboration avec les équipes Data sur BigQuery.

Job Vacancy
Administrateur Google Workspace (H/F)
Au sein de l’équipe Service Delivery, vous interviendrez comme référent·e technique et fonctionnel·le sur la plateforme Google Workspace. Vous contribuerez à garantir la performance, la fiabilité et la sécurité des outils collaboratifs du groupe, tout en participant à leurs évolutions stratégiques. Vos principales responsabilités : Piloter la supervision et l’administration de la plateforme Google Workspace. Assurer le diagnostic et la résolution d’incidents complexes, en lien avec les experts de la plateforme. Accompagner la mise en œuvre des évolutions et transformations Cloud. Formaliser et diffuser les bonnes pratiques d’exploitation et d’usage auprès des équipes support et métiers. Contribuer à la documentation technique et fonctionnelle et à la préparation des phases de tests et de déploiement. Garantir le respect des SLA et des standards ITSM / ITIL.

Contractor job
Full Remote - Mission Freelance / portage - DevOps GCP Senior – Projet Move to Cloud
Bonjour, Pour un client dans l’industrie, je recherche un DevOps GCP Senior pour un projet Move to Cloud GCP - Lift and Shift . Mission : Migration de l’infra on-prem vers GCP (GCE) Modernisation sur Kubernetes (GKE) Durée : 6 mois renouvelable (freelance ou portage – accompagnement possible pour le passage en portage – préavis de 2 mois accepté) Démarrage : janvier 2026 // ⏳ Process & contrat : ASAP Rythme : full remote depuis la France Compétences clés : GCP / Google Cloud Kubernetes / GKE Google Compute Engine (GCE) Services managés IaC Migration Lift & Shift Si vous êtes intéressé et que votre profil correspond, envoyez votre CV à jour , je reviendrai vers vous rapidement.

Job Vacancy
Data Solution Architect / Lead Data Engineer NATIONALITE FRANCAISE
🎯 Votre mission Vous serez responsable de la conception et de l’architecture de bout en bout des solutions Data et analytiques au sein d’un ou plusieurs value streams . Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées , basées sur notre plateforme d’entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise). Architecture & Design Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique. Intégrer des flux ML et des features stores lorsque nécessaire. Modélisation Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation). BI & Analytics Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats). Favoriser l’autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données. Ops & FinOps Définir et suivre les SLOs (fraîcheur, latence, coût). Mettre en place l’observabilité, les runbooks et les stratégies de backfill. Optimiser le stockage et les requêtes pour maîtriser les coûts. Gouvernance & Data Mesh Gérer la documentation, la découvrabilité et les métadonnées produits. Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques. 🛠️ Compétences techniques indispensables 7 à 12 ans d’expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi). Solide expérience avec Trino / Presto , Spark / Flink , Kafka / PubSub . Expertise en modélisation sémantique , data contracts , performance engineering , dbt et metrics layers . Maîtrise des environnements GCP et hybrides on-prem , IaC , et CI/CD pour la donnée . 🧭 Livrables clés Architecture one-pager et data contracts. ADRs et HLD (High Level Design). Modèle sémantique et arbre de KPI. Runbooks / SLOs et modèle de coût. 🤝 Gestion des parties prenantes Travailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités. Présenter les avancements, jalons et défis techniques auprès du management. 🎓 Profil recherché Minimum 7 ans d’expérience en développement logiciel, dont 3 ans en leadership technique . Expérience confirmée dans la conception et la mise en œuvre de plateformes data ou analytiques à grande échelle . Bonne compréhension des architectures cloud et API-driven . Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices). Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration) . La connaissance de Snowflake, BigQuery ou d’infrastructures AI/ML est un atout majeur

Job Vacancy
Ingénieur CloudOps (H/F)
🚀 Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. 🎯 Ce qui t’attend chez nous.. Nous recherchons un(e) Ingénieur CloudOps pour intervenir en prestation chez l’un de nos clients majeurs du secteur Retail. Tu seras le bras droit du Tech Lead et joueras un rôle central dans la définition, la conception et la mise en œuvre des infrastructures orientées micro-services (Kubernetes), en appliquant les principes de l’Infrastructure as Code (IaC). Ta mission consistera à : Concevoir, construire et maintenir les infrastructures du domaine, Piloter l’écosystème Kubernetes et animer les échanges techniques, Mettre en place les outils d’automatisation et de déploiement (CI/CD), Former et accompagner les équipes de développement dans l’usage des infrastructures, Assurer la supervision, la sécurité et la disponibilité des environnements, Participer aux phases de R&D sur les outils micro-services et proposer des améliorations techniques et organisationnelles. Démarrage : immédiat Télétravail : modèle hybride 🧩 Ce que nous recherchons… Excellente maîtrise de Kubernetes en production, Expertise sur un cloud public (AWS ou GCP) et leurs services managés (EKS, GKE…), Solides compétences en administration Linux et notions réseau, Maîtrise d’un langage de scripting (Python, Go…), Autonomie, sens du service, esprit d’équipe et bonne communication. 🔥 Ce que tu trouveras chez Winside … Une communauté d’experts diversifiés (Craft, Core, Risk & Security etc), Une entreprise en pleine croissance, qui valorise l’initiative et la créativité, Un parcours de formation personnalisé et de vraies perspectives d’évolution, Une vie d’entreprise rythmée par des événements techniques et conviviaux, Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme.
Job Vacancy
Développeur·se PHP / Cloud (GCP)
Vous êtes développeur·se backend avec une bonne maîtrise de PHP et un intérêt pour les environnements cloud ? Vous souhaitez rejoindre un projet structuré au sein d’une équipe expérimentée, sur une mission technique et stable ? Cette opportunité pourrait bien vous correspondre ! Nous recherchons un·e Développeur·se PHP / Cloud (GCP) pour une mission de longue durée au sein d’une DSI du secteur de l'énergie. interviendrez sur : La maintenance évolutive des applications PHP / Symfony en production La mise en œuvre de nouvelles fonctionnalités techniques ou métiers L’optimisation de la performance des applications existantes L’amélioration continue de la qualité du code et des pipelines CI/CD (GitLab, tests automatisés) Le renforcement de l’observabilité et du monitoring applicatif La collaboration avec les équipes dev et ops, dans un environnement agile Environnement technique : Langages & Frameworks : PHP, Symfony Cloud : Google Cloud Platform (GCP) CI/CD & Conteneurisation : GitLab CI, Docker, Docker-in-Docker, Kaniko SGBD : Oracle, PostgreSQL Méthodologies : Scrum, Agile Outils et pratiques DevOps : Git, Bash, Ansible, Puppet, Terraform, Kubernetes, monitoring et documentation des infrastructures

Job Vacancy
Architecte Cloud Senior Multi-Cloud (AWS / Azure / GCP)
Dans le cadre d’un grand programme de transformation SI, l’entité numérique du client final recherche un Architecte Cloud Senior pour renforcer son expertise sur les produits numériques hébergés sur AWS, Azure et GCP. L’objectif est de concevoir des architectures Cloud-native sécurisées, performantes et conformes aux standards internes. Missions principales Participer aux études de cadrage et à la définition d’architectures Cloud hybrides. Concevoir les solutions techniques en tenant compte de la sécurité, des coûts et de la performance. Rédiger la documentation d’architecture (DAT, schémas, audit infra). Contribuer à la mise en place des socles Cloud (AWS/Azure/GCP). Superviser les phases de build et de déploiement. Participer aux rituels Agile/SAFe et aux comités techniques. Accompagner la montée en compétence des équipes internes.
Contractor job
Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace
Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .

Job Vacancy
Junior Développeur Full Stack Java Angular (H/F) – Portage
Type de contrat : Portage Disponibilité : ASAP TT – 3 jours Description du poste : Nous recherchons un Junior Développeur Full Stack Java Angular (3 ans d’expérience en alternance ou CDI). Développement d’un projet Java Angular déployé sur Google Cloud Platform (GCP), notamment sur Google Kubernetes Engine (GKE). Vous participerez également aux migrations de composants existants vers Java 17 et Angular 17, et contribuerez à l’amélioration des indicateurs Sonar et CheckMarks afin d’assurer une couverture de tests optimale pour les projets Asset et Data. Missions : -Développement backend en Java avec frameworks Spring et Hibernate. -Développement frontend en Angular (version 17+). -Conception et développement d’API RESTful. -Migration et modernisation de composants existants. -Optimisation des indicateurs qualité (Sonar, CheckMarks). -Participation aux phases de tests unitaires et d’intégration.

Contractor job
DEVOPS
Kubernetes - Confirmé - Impératif Google Cloud Platform (GCP) - Confirmé - Impératif Terraform - Confirmé - Impératif Datadog - Confirmé - Important Connaissances linguistiques: Anglais Professionnel (Impératif) Missions : - Diffuser auprès des équipes de développement les bonnes pratiques liées aux Opérations. - Déploiement d’infrastructures et configuration d’environnements (hors-production et production). - Mise en place de chaînes de CI/CD. - Accompagnement des équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). - Participation aux analyses avec les équipes en cas d’incident, définition et mise en œuvre de plans d’action suite aux post-mortems. - Proposer des solutions pour améliorer les performances, la sécurité des systèmes ou des plateformes. - Mener une démarche FinOps afin de fournir le bon service au juste coût et la diffuser auprès des équipes (mise en oeuvre des bonnes pratiques, suivi des consommations, mise en place de plans d’action si nécessaire) - Participer au Run transverse sur le domaine (prise en charge de tickets créés par nos Business Units utilisatrices en amont des équipes produit). - Participer aux astreintes sur le domaine (rotation avec les autres Ops de l'équipe).
Job Vacancy
Architecte Cloud Multi-Cloud & Migration
Vos Responsabilités Clés Conception Multi-Cloud : Définir les architectures cibles (Landing Zones) en tenant compte des contraintes de sécurité, de performance et de budget ( FinOps ). Pilotage de Migration : Assurer la conception technique détaillée des stratégies de migration (6R de Gartner : Re-host, Re-platform, etc.) pour des applications et infrastructures existantes vers le Cloud. Gouvernance et Sécurité : Garantir la conformité des architectures aux standards de sécurité et de réglementation d'EDF. Définir les principes de gouvernance Cloud. Expertise Technique : Conseiller les équipes sur le choix des services Cloud et les patterns d'intégration (Hybrid Cloud, API Management, Conteneurisation, Serverless).
Contractor job
Développeur·se PHP / Cloud (GCP)
Vous êtes développeur·se backend avec une bonne maîtrise de PHP et un intérêt pour les environnements cloud ? Vous souhaitez rejoindre un projet structuré au sein d’une équipe expérimentée, sur une mission technique et stable ? Cette opportunité pourrait bien vous correspondre ! Nous recherchons un·e Développeur·se PHP / Cloud (GCP) pour une mission de longue durée au sein d’une DSI du secteur de l'énergie. interviendrez sur : La maintenance évolutive des applications PHP / Symfony en production La mise en œuvre de nouvelles fonctionnalités techniques ou métiers L’optimisation de la performance des applications existantes L’amélioration continue de la qualité du code et des pipelines CI/CD (GitLab, tests automatisés) Le renforcement de l’observabilité et du monitoring applicatif La collaboration avec les équipes dev et ops, dans un environnement agile Environnement technique : Langages & Frameworks : PHP, Symfony Cloud : Google Cloud Platform (GCP) CI/CD & Conteneurisation : GitLab CI, Docker, Docker-in-Docker, Kaniko SGBD : Oracle, PostgreSQL Méthodologies : Scrum, Agile Outils et pratiques DevOps : Git, Bash, Ansible, Puppet, Terraform, Kubernetes, monitoring et documentation des infrastructures
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
Contract roles and jobs for Google Cloud Platform (GCP)
DevOps Engineer (Cloud)
The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.
Explore contract role and jobs for Cloud Architect .
Find out the jobsSystems & Networks Engineer
The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.
Explore contract role and jobs for Systems & Networks Engineer .
Find out the jobsInfrastructure and Production Manager
The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs