Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 232 results.
Contractor

Contractor job
Consultant ERP Cloud

ESENCA
Published on
Agile Scrum
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)

1 year
Lille, Hauts-de-France

LE CONTEXTE : - Produit : ERPC Oracle - Le candidat intégrera la guilde AR/CE du projet ERPC Oracle sur le processus O2C. - Le candidat sera sous la responsabilité du Digital Component Manager (DPM) de la guilde AR/CE. - Enjeu Finance & Performance SA MISSION : - Au sein de l'équipe projet, il contribue aux différentes activités de l'équipe (RUN, évolutions, amélioration continue de la solution, création de BU). SON ACTIVITE : - Participer au RUN de l'équipe (niveau L2, activité limitée). Pour ce faire, il faudra gérer les tickets via Service Now, en apportant le bon niveau de réponse tout en respectant les SLA. - FitGap : Participer à des ateliers pour identifier le besoin des BU - Setup applicatif : Formaliser le besoin, communiquer et faire le suivi avec les équipes en charge du setup - Setup technique : Spécifier et mettre en place des interfaces pour communiquer avec des composants externes - UAT : Participer aux phases de recette de l'applicatif (tests unitaires, BAB, BR) - RDD : Participer aux reprises de données lors des déploiements - Participer à l'amélioration continue de l'équipe - Mettre en place des évolutions de l'application (spécifiques) - Etre force de proposition pour identifier des gains de productivité au sein de l'équipe SES LIVRABLES : - Un système applicatif opérable et documenté - Un suivi opérationnel via le Kanban de l'équipe

Contractor
Permanent

Job Vacancy
Data Engineer

Proxiad
Published on
Azure DevOps
BigQuery
Google Cloud Platform (GCP)

3 years
Ile-de-France, France

Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Permanent
Fixed term
Contractor

Job Vacancy
Consultant Cloud & Infrastructure -Charenton (H/F)

RIDCHA DATA
Published on
Azure
CFT (Cross File Transfer)
Cloud

1 year
Charenton-le-Pont, Ile-de-France

🎯Objectif global Intégrer une équipe de Production Applicative dédiée aux Paiements, afin de renforcer les activités liées à la gestion, la sécurisation et la performance des plateformes Cloud publiques. ⚙️ Contexte de la mission Vous interviendrez au sein d’un pôle stratégique où les services de paiements sont infogérés et hautement critiques. L’objectif est de garantir la continuité de service, l’intégration technique et la conformité des solutions Cloud, tout en participant activement aux projets de migration et d’industrialisation des environnements. 🧩 Vos principales missions -Prendre en charge l’intégration technique des solutions existantes et nouvelles. -Assurer le maintien en conditions opérationnelles des plateformes Cloud. -Mettre en œuvre les réponses aux audits externes et aux contrôles internes. -Participer à la mise en conformité et à la sécurité des systèmes d’information. -Gérer les projets de migration Cloud et accompagner les équipes de développement dans l’industrialisation des solutions. -Produire la documentation technique pour les équipes de production et assurer un support de niveau 3. Participer à la gestion des incidents critiques et coordonner les experts techniques. 🧠 Compétences techniques impératives Maîtrise Azure CLI et Azure PowerShell Maîtrise de Terraform Connaissance de GCP (Composer, Dataproc, BigQuery) Expérience sur les principes DevOps (Bitbucket, Jenkins, XLD, XLR) Solides compétences sur les environnements Linux / Windows / scripting Shell Bonne compréhension des architectures réseau (TCP/IP, Firewall, Proxy, etc.) Connaissance des bases de données Oracle / SQL 🧩 Compétences complémentaires appréciées Ordonnanceur Control-M, middleware MQ / CFT Connaissances en sécurité Cloud et audits SI Expérience dans des environnements paiements ou bancaires

Contractor

Contractor job
DevOps (Python / Java)

AVALIANCE
Published on
Automation
AWS Cloud
Azure

3 years
Ile-de-France, France

Vous rejoindrez une équipe en charge des pratiques de développement, du Devops, du Cloud et du Numérique Responsable. Besoin : le client cherche jusqu'à 4 profils Devops avec la partie applicative ( Python ou java ) Compétences techniques recherchées : - Langages : Python et/ou Java. - CI/CD : GitLab CI, Jenkins, Azure DevOps… - Cloud & Infra : Azure, AWS ou GCP – Docker, Kubernetes, Terraform. - Monitoring : ELK, Prometheus, Grafana. - Pratiques DevOps : Infrastructure as Code, automatisation, observabilité. Connaissance du secteur assurance/banque ou forte appétence pour les métiers financiers. Bon relationnel, esprit collaboratif et sens de l’amélioration continue.

Contractor

Contractor job
Administrateur N3

HAYS France
Published on
Google Cloud Platform (GCP)
IT support
Linux

2 months
Lille, Hauts-de-France

Une mission courte mais stratégique est proposée à Lille, du 3 novembre au 31 décembre 2025. Elle s’adresse à un profil souhaitant intervenir en tant qu’administrateur N3 sur un produit métier à fort enjeu. Vous serez responsable du traitement des incidents via EasyVista, de la gestion des problèmes en lien avec l’éditeur, et de certains sujets issus de la backlog produit sous la responsabilité du Product Owner. Vous contribuerez également aux projets liés au produit. Le profil recherché correspond à un responsable des systèmes applicatifs junior, capable d’assurer l’évolution, la maintenance corrective et applicative du système, tout en garantissant le support de niveau 2 et le respect du contrat de services (qualité, sécurité, etc.).

Contractor

Contractor job
DATA ENGINEER GCP (H/F)

ALLEGIS GROUP
Published on
Big Data
Google Cloud Platform (GCP)
Terraform

1 year
France

TEKsystems recherche pour le compte de son client : Un(e) DATA ingenieur(e) 📌 Contexte : Intégration au sein de l’équipe Finance. Plus précisément, intégration dans une sous-équipe composée de 2 data engineers, au sein d’un ensemble de 8 personnes. 🛠️ Activités : Mise à disposition de nouveaux projets et produits data sur GCP (Google Cloud Platform). Répartition des missions : 70 % dédiés à l’innovation et au développement de nouveaux projets sur GCP. 30 % consacrés à la continuité et au maintien des solutions existantes. 🤝 Interlocuteurs privilégiés : Product Owner (PO), Business Analyst et Chef de projet IT.

Permanent

Job Vacancy
Data engineer H/F

OPEN GROUPE
Published on
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Contractor

Contractor job
Ingénieur OS - Poste de Travail Windows / Expérimenté

CAT-AMANIA
Published on
Active Directory
Agile Method
Batch

1 year
100-450 €
Lille, Hauts-de-France

Contexte de la mission Au sein de l’équipe DEVICES, la mission sera d’assurer l’exploitation, le bon fonctionnement de nos postes clients Windows 11 sur les différents sites, l'intégration des nouveaux besoins et l’évolution de nos process de mastérisation de postes de travail Windows basés aujourd'hui sur MDT et que nous souhaitons remplacer par une nouvelle solution de provisionning. Ce rôle est à périmètre international pour nos magasins et services. Objectifs et livrables Maintien en condition opérationnelle de l'infrastructure MDT Réaliser les tâches de mises à niveau des Masters selon les remontées des équipes techniques. Validation et intégration au Master des mises à jour système Packaging d'applications (Workspace One, Powershell) Intégration et déploiement des packages en lien avec les Masters et le catalogue d'applications. MCO et intégration du futur catalogue matériel (Laptop/Desktop) avec MDT. Pilotage de la qualité des déploiements (Mesure et communication des indicateurs) Revue et Rédaction de documentation technique. Build de la nouvelle solution de provisionning (WSO, Baremetal, Powershell GUI, DISM, Google Cloud) Windows afin de remplacer MDT. Support Niveau 4 Accompagnement des projets techniques de la feature workstation

Contractor

Contractor job
Développeur Python

ESENCA
Published on
Azure
Datadog
Google Cloud Platform (GCP)

1 year
400-430 €
Lille, Hauts-de-France

Notre futur.e Software Engineer interviendra au sein de l’équipe Network Content Delivery, composée de Tech Lead, Engineering Manager, et Software Engineers. Cette équipe a pour objectif de garantir le fonctionnement des produits Load Balancing, Content Delivery Network (CDN) et Anti-Bot, en gérant l’installation, la configuration, la mise à jour, la sauvegarde et le support. Le but de ces produits est d’exposer des ressources (web sites, applications, API) en optimisant la sécurité et augmentant le delivery, de manière provider agnostic. Tu devras : -Contribuer à l'automatisation des tâches manuelles de support et d'administration des solutions. -Construire et exploiter des infrastructures sécurisées et résiliantes multi-providers. -Analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures -Identifier et gérer la dette des développements existants. -Intégrer notre cycle de run et élaborer des mesures correctives pour résoudre les root causes des incidents.

Contractor

Contractor job
data ingnénieur

Etixway
Published on
Apache Kafka
BigQuery
Docker

1 year
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Contractor

Contractor job
Tech Lead Back-End Java / Kafka

WHEEL OF WORK
Published on
Apache Kafka
BigQuery
Github

4 months
450-510 €
Lille, Hauts-de-France

Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)

Contractor

Contractor job
Développeur Java/Vuejs/Kafka

ESENCA
Published on
Apache Kafka
Google Cloud Platform (GCP)
Java

1 year
400-440 €
Lille, Hauts-de-France

Votre activité principale est de procéder aux développements dans un contexte de projet Agile. Vous participez à la définition de la vision technique des produits. Pour cela, vous vous appuyez sur votre compréhension des problématiques fonctionnelles et votre expertise technique. Vous élaborez la conception et les spécifications techniques des produits, vous trouvez des solutions permettant d’atteindre les objectifs fixés en équipe et vous évaluez la charge de développement. Vous êtes Co-responsable de la qualité du produit (crashlytics, TU/TI, sonar, “Global ready”, “tirs de performances”, “suivi de la perf”). Vous pilotez l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Vous participez à l'élaboration de la chaîne de développement, d’intégration, de déploiement et d’exploitation selon les pratiques DevOps dans la Google Cloud Platform. Au sein d’une équipe de développeurs de talent, vous participez à l’amélioration continue des process et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, UI/UX, sécurité, DevOps, FinOps…). Vous assurez une documentation complète des développements et des configurations au sein du référentiel documentaire. Vous participez activement au RUN / analyse de problèmes en Production et vous êtes garant des SLO

Contractor

Contractor job
Lead Python / Dév Agents IA

Cherry Pick
Published on
FastAPI
Generative AI
Google Cloud Platform (GCP)

6 months
610-680 €
Boulogne-Billancourt, Ile-de-France

Description de la mission : Contribuer au développement et à l’évolution de nouveaux agents IA pour enrichir une plateforme interne. Les agents, de type Retrieval-Augmented Generation (RAG), permettent aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows intégrant l’IA générative. La mission inclut le développement, l’intégration, la maintenance et l’optimisation des agents dans un environnement micro-services, avec un focus sur la performance, la scalabilité et la qualité des services. Missions principales : Développer et maintenir des agents IA en Python, garantissant : Couverture fonctionnelle et spécialisation des agents Collaboration entre agents et respect des standards Sécurité et gestion des ACLs Monitoring, reporting et évaluation de qualité Optimisation des performances et coûts Scalabilité et stabilité de la plateforme Remise en marche rapide du SI si nécessaire Piloter la conception et le développement en collaboration avec les équipes DevOps et Solution Architects Challenger et contribuer à la vision produit Prioriser services et sécuriser les dépendances techniques

Contractor

Contractor job
Product Owner Technique – Data Platform

Atlas Connect
Published on
Agile Scrum
AWS Cloud
AWS Glue

12 months
400-510 €
Paris, France

Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.

Permanent
Contractor

Job Vacancy
Data Engineer GCP

INGENIANCE
Published on
Azure DevOps
BigQuery
DBT

3 years
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Contractor
Permanent

Job Vacancy
Devops Senior KAFKA (H/F)

WINSIDE Technology
Published on
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 years
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

232 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us