Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 228 results.
Permanent
Contractor

Job Vacancy
Expert Multi-Cloud (AWS/Azure/GCP)

KLETA
Published on
AWS Cloud
Azure
CI/CD

2 years
Paris, France

Au sein d’un grand programme de transformation SI d’un acteur majeur du secteur énergétique, vous interviendrez comme Expert Multi-Cloud & Data pour accompagner la conception, le déploiement et l’exploitation de produits numériques et plateformes Data hébergés sur les principaux Cloud Providers (AWS, Azure, GCP et Cloud Souverain). Votre rôle consistera à renforcer les équipes internes sur l’ensemble des volets Cloud : architecture, sécurité, automatisation, observabilité, migration. Responsabilités principales Concevoir et déployer des architectures Cloud hybrides et sécurisées (AWS / Azure / GCP) pour des produits et plateformes Data. Réaliser les études de cadrage , choix technologiques et analyses de faisabilité (techniques et économiques). Définir et mettre en œuvre les solutions d’Infrastructure as Code (Terraform, ARM, CloudFormation, etc.). Participer à l’intégration d’offres Cloud de Confiance et à la migration de plateformes On-Premise vers le Cloud. Contribuer à la stratégie DevSecOps : pipelines CI/CD, qualité, sécurité du code, automatisation. Déployer les outils de supervision, monitoring et observabilité (CloudWatch, Azure Monitor, Prometheus, Datadog, Dynatrace…). Assurer la gestion des incidents et le reporting opérationnel . Mener des actions de formation et transfert de compétences auprès des équipes internes. Participer activement aux cérémonies Agile / SAFe (sprints, rétrospectives, PI planning…).

Permanent

Job Vacancy
Développeur DevOps Cloud

Amontech
Published on
AWS Cloud
DevOps
Google Cloud Platform (GCP)

1 year
40k-50k €
400-500 €
La Défense, Ile-de-France

🎯 Contexte Nous recherchons un Développeur Senior DevOps GCP pour intervenir sur une plateforme stratégique de calculs de risque Equity au sein d’un groupe bancaire international. Vous rejoindrez l’équipe en charge du développement et de la transformation de la plateforme vers une architecture micro-services déployée sur Google Cloud Platform (GCP). 🔎 Missions Intégré(e) à l’équipe, vous serez en charge de : Développer et maintenir les composants de la chaîne end-to-end du calcul de risque. Répondre aux enjeux de performance, scalabilité, résilience et sécurité. Mettre en place et exécuter les tests, déployer en production et rédiger la documentation. Travailler principalement sur GCP, avec une ouverture sur AWS. Participer au monitoring, à la maintenance et au support des applications (astreintes incluses). Contribuer à l’amélioration continue des pratiques DevOps au sein de l’équipe. 🛠 Compétences recherchées 5 ans d’expérience minimum en développement et DevOps. Excellente maîtrise de Java, Python, Jenkins, Terraform, Kubernetes et GCP/AWS. Connaissances appréciées en C++ et SQL. Anglais courant, environnement international. Une expérience dans les domaines Equity, Pricing ou Risk est un atout. 📍 Localisation & Conditions Basé en Ile-de-France. Démarrage : dès que possible.

Contractor

Contractor job
Systeme Architect Mise en conformité Data Client GCP

Nicholson SAS
Published on
GDPR
Google Cloud Platform (GCP)
Salesforce Sales Cloud

8 months
670 €
Paris, France

Client : Luxe Site : Paris, 3 jours par semaine sur site. Prix achat max : 670 HT € Date de démarrage : ASAP Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité Réglementaire dans un environnement Data Platform (GCP) Mission : En tant que System Architect, vous serez principalement responsable de la conception et de la supervision des évolutions architecturales de notre plateforme de données sur GCP, en vous concentrant sur les aspects liés aux informations clients. Cela inclue l'anonymisation des données pour la conformité RGPD, la séparation des données issues de profils client suite à PIPL, la régénération des identifiants techniques des clients et l'inventaire des données client dans l'ensemble de la plateforme. Ces tâches s'inscrivent dans le cadre d'un programme complet visant à assurer la conformité et l'optimisation de notre gestion des données clients. Nombre d’années d’expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect , avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Attendu : Évolutions architecturales de la plateforme de données : Concevoir, spécifier et superviser les évolutions architecturales de notre plateforme de données client sur GCP (Google Cloud Platform), en mettant l'accent sur les aspects liés à la conformité et la protection des données. Gestion du cycle de vie des données client : Définir et mettre en oeuvre les procédures de gestion du cycle de vie des données clients, de la collecte à l'archivage, en passant par l'anonymisation et la résilience de la plateforme à la régénération des identifiants techniques suite à anonymisation. Conformité réglementaire (RGPD, PIPL, voire PIPA) : Assurer la conformité de notre plateforme aux réglementations RGPD, PIPL voire PIPA, en mettant en oeuvre les mécanismes d'anonymisation, de séparation des données et de gestion du consentement nécessaires, s'inscrivant dans un processus global à tout le SI. Inventaire et cartographie des données client : Réaliser un inventaire complet des données clients présentes dans l'ensemble de la plateforme et cartographier leur flux et leur utilisation, incluant un MDM client, Salesforce Core Platform, Salesforce Marketing Cloud. Collaboration et communication : Collaborer étroitement avec les équipes de gestion de projet, sécurité, conformité et technique pour comprendre les besoins et traduire les exigences réglementaires en solutions techniques concrètes, en prenant aussi en n'oubliant pas les exigences non fonctionnelles. Communiquer efficacement les enjeux liés à la gestion des données clients et à la conformité réglementaire. Intégration et automatisation : Superviser l'intégration ainsi que le traitement des données client provenant de différentes sources et automatiser les processus de gestion des données pour garantir leur qualité, leur disponibilité et leur conformité.

Permanent

Job Vacancy
Développeur Power BI Sénior

INGENIANCE
Published on
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

48k-58k €
Paris, France

Nous recherchons actuellement un profil sénior Développeur Power BI pour une mission de longue durée chez un de nos clients dans le secteur du luxe. La mission démarrera ASAP, au sein des locaux du client situés dans Paris Intramurros. 2 jours de télétravail seront prévus pour cette mission, fixé par l'équipe en fonction des semaines. Les différentes tâches consisterons en : • Analyse, chiffrage, conception sur les nouveaux besoins de reporting • Développements avancés (Dashboard, Semantic Model, Power automate) • Support Power BI L3 sur les incidents • Formation des utilisateurs à Power BI et au self-service en Français / Anglais

Contractor

Contractor job
Mons-en-Barœul -Tech Lead Ops

Signe +
Published on
CI/CD
Control-M
Git

6 months
400 €
Mons-en-Barœul, Hauts-de-France

Descriptif du poste / Critères de sélection Dans le cadre de la modernisation et de l’industrialisation de notre plateforme Data et de nos applications métier, nous recherchons deux TECH LEAD OPS expérimenté, spécialisé en Ingénierie de Production / DevOps. Il est l’interlocuteur principal technique des équipes projets sur les infrastructures à mettre en place pour des solutions cloud ou on premise,. Il intervient également sur la définition de la stratégie et de sa mise en oeuvre d’automatisation et d’ordonnancement des traitements et des flux de plateforme de solutions hétérogènes. Enfin, il met en œuvre en collaboration avec le tech lead data la mise en place et l’amélioration de la chaine CI/CD pour atteindre l’efficacité d’une équipe agile autonome. Il peut également intervenir sur des problématiques d’exploitations et amélioration continue. Contrainte de mobilité : déplacements fréquents à Paris (1 jour par semaine)

Contractor

Contractor job
Data Analyst / Data Engineer

Lawrence Harvey (LHI group limited)
Published on
Azure
Data analysis
Google Cloud Platform (GCP)

1 month
450-550 €
Paris, France

Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)

Contractor

Contractor job
Cloud Service Delivery Manager

Groupe Aptenia
Published on
Azure
Change management
Google Cloud Platform (GCP)

3 years
Paris, France

Piloter la gestion des incidents, des problèmes et effectuer les communications aux équipes IT. Suivre le plan d'amélioration suite à incident (RCA) et prendre les mesures correctives associées. Mettre en place des processus de résolution efficaces. Analyser les causes profondes des incidents et proposer des solutions durables. Piloter les relations avec les prestataires d'infogérances On-Premise et Public Cloud (Azure/GCP). S'assurer du respect des SLA et des engagements contractuels. Suivre la performance des prestataires et identifier les axes d'amélioration. Piloter les demandes de changement de production et coordination avec les équipes et partenaires. S'assurer de la bonne application des processus de gestion des changements. Évaluer les risques et les impacts des changements. Coordonner les équipes techniques impliquées dans les changements. Valider la qualité des livrables et leur conformité aux exigences. Organiser les revues de mise en production et s'assurer de la préparation des équipes. Effectuer le reporting hebdomadaire et mensuel de suivi de l'activité de production. Proposer des recommandations d'amélioration continue.

Contractor
Permanent

Job Vacancy
Data Analyst

Ositel France
Published on
BigQuery
Data Lake
Google Cloud Platform (GCP)

6 months
Ile-de-France, France

Nous recherchons un Data Analyst pour une mission longue, démarrage ASAP. Ses principales missions seront : Création du socle de données : Audit des nouvelles données disponibles dans le DataLake (GCP) ; Participation à la construction et à la modélisation du socle de données. Analyse et exploitation des données : Analyse des profils utilisateurs, comportements de consommation, canaux d’acquisition et rétention ; Étude de l’impact de la pression publicitaire et des nouvelles fonctionnalités sur l’expérience utilisateur ; Analyse de la distribution des contenus auprès de nouveaux partenaires (effets de cannibalisation, audience, etc.). Production d’outils de pilotage : Création, mise à jour et ajustement de Dashboards Power BI pour le suivi des objectifs, indicateurs clés et segments utilisateurs ; Proposition de nouveaux indicateurs pertinents pour le suivi de la performance et des usages.

Contractor
Permanent

Job Vacancy
Data Engineer Python/Spark GCP

VISIAN
Published on
Apache Airflow
Apache Spark
Google Cloud Platform (GCP)

2 years
44k-90k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Permanent
Contractor

Job Vacancy
DevOps GCP

KLETA
Published on
DevOps
Google Cloud Platform (GCP)

3 years
Paris, France

Missions principales Concevoir, déployer et maintenir des infrastructures GCP (Compute Engine, GKE, Cloud Storage, BigQuery, Pub/Sub, VPC, IAM, etc.). Mettre en place et gérer des pipelines CI/CD pour les projets cloud (Cloud Build, GitHub Actions, Jenkins, GitLab CI). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, Deployment Manager, Ansible). Assurer la supervision, le monitoring et l’alerting (Stackdriver, Cloud Monitoring, Prometheus, Grafana). Implémenter les bonnes pratiques de sécurité GCP et assurer la conformité (IAM, gestion des secrets, audit). Collaborer avec les équipes Développement et Data pour optimiser l’architecture cloud et les processus de déploiement. Participer à la résolution d’incidents et à l’amélioration continue des environnements cloud.

Permanent
Contractor

Job Vacancy
Développeur Fullstack Java / Angular – GCP

VISIAN
Published on
Angular
API REST
Google Cloud Platform (GCP)

1 year
27k-40k €
240-400 €
Ile-de-France, France

Description du poste : Nous recherchons un Développeur Fullstack Java / Angular pour rejoindre une équipe dynamique et contribuer à la mise en œuvre et au développement d’un projet stratégique déployé sur Google Cloud Platform (GCP) , principalement sur Google Kubernetes Engine (GKE) . Vous participerez également aux migrations de composants existants vers Java 17 et Angular 17 , et serez impliqué dans l’amélioration continue de la qualité logicielle à travers les indicateurs Sonar et CheckMarks , afin de garantir une couverture de tests optimale sur des projets applicatifs et data. Missions principales : Développement et évolution d’applications Java/Angular. Migration de composants vers Java 17 et Angular 17. Mise en place et optimisation de déploiements sur GCP (GKE). Conception et développement d’API RESTful. Contribution à l’amélioration des indicateurs qualité (Sonar, CheckMarks). Participation aux phases de tests unitaires, d’intégration et à la CI/CD. Collaboration avec les équipes projets (développeurs, architectes, chefs de projet).

Contractor

Contractor job
Data Engineer (H/F)

Insitoo Freelances
Published on
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 years
100-430 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Les missions attendues par le Data Engineer (H/F) : - Participation au cadrage du besoin avec les équipes concernées - Participation à la conception et aux développements des pipelines de données - Refactoring de pipelines de données (Cleaning, technos cibles, ...) - Finops et optimisation - Développements de scripts et algos - Accompagnement des équipes métiers sur le développement d'analyse ponctuelle et éventuellement de la data visualisation (modèle & reports/dashboards)

Contractor

Contractor job
DATA ENGINEER GCP

CHOURAK CONSULTING
Published on
Apache Spark
BigQuery
DBT

1 year
400-600 €
Ile-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Contractor
Permanent

Job Vacancy
Devops (AWS et GCP) (expert dynatrace) full remote

Lùkla
Published on
Ansible
AWS Cloud
DevOps

1 year
47k-56k €
400-550 €
Clipperton Island, France

Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible

Permanent
Contractor

Job Vacancy
Data Engineer

ANAFI CONSULTING
Published on
BigQuery
Docker
Domain Driven Design (DDD)

1 year
10k-60k €
100-550 €
Clipperton Island, France

Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data

Contractor

Contractor job
Ingénieur Système Sécurité et Cloud

TDS
Published on
Azure
Google Cloud Platform (GCP)

12 months
400-550 €
Paris, France

Responsabilités principales Administrer et sécuriser les environnements Active Directory . Développer et maintenir des scripts d’automatisation (principalement en PowerShell ). Participer à la conception, au déploiement et à l’optimisation des infrastructures Cloud (GCP et Azure) . Assurer la gestion des environnements Windows Server . Contribuer à la mise en place de standards de sécurité et au suivi de la conformité. Participer à des projets transverses avec les équipes réseaux, sécurité et développement. Rédiger et maintenir la documentation technique.

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

228 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us