Find your next tech and IT Job or contract Google Cloud Platform (GCP)
What you need to know about Google Cloud Platform (GCP)
Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Contractor job
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory
JS FullStack Developer, on GenAI (GCP) - 92 - English mandatory 🎯 Le projet : Nous recherchons quelqu'un pour participez à un projet innovant et international qui associe développement web JS et intelligence artificielle générative , on Cloud (GCP) Vous travaillerez au sein d’une équipe dynamique sur la création et l’optimisation d’applications full stack JS intégrant les dernières avancées en IA générative (textes & images) , avec un fort accent sur la performance, la scalabilité et l’expérience utilisateur. 🔧 Missions principales : Concevoir et développer des applications web full stack robustes et performantes. Intégrer des modèles de GenAI dans les plateformes (NLP & génération d’images). Concevoir et implémenter des interfaces utilisateurs ergonomiques et esthétiques . Collaborer sur l’infrastructure cloud GCP et les bases de données (orchestrées par MongoDB) afin de garantir des solutions scalables et optimisées. Participer activement aux choix techniques et à l’amélioration continue du projet.

Job Vacancy
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Contractor job
Data Analyst DBT GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié

Job Vacancy
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Job Vacancy
DevSecOps Multi-Cloud - LYON
Missions principales Mettre en place et maintenir des pipelines CI/CD sécurisés pour des environnements multicloud (AWS, GCP, Azure). Définir et implémenter les standards DevSecOps (SAST, DAST, IAST, Secret Scanning, compliance). Intégrer la sécurité dans toutes les étapes du cycle de delivery (SecDevOps). Assurer le monitoring, l’observabilité et la gestion des vulnérabilités sur les environnements Cloud. Développer et maintenir des modules Terraform standardisés et réutilisables. Collaborer avec les équipes SRE et Cloud Architects pour industrialiser les environnements.

Contractor job
Développeur Java/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java/Vue (H/F) à Lille, France. Contexte : Développer en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Mise en place d’outils de monitoring (DataDog) Assistance des utilisateurs sur le run technique MOB, Pair review Les missions attendues par le Développeur Java/Vue (H/F) : Vous disposez d'une très bonne expérience en développement back en Java Vous avez de l'appétence pour le dev front (vue + JS typescript) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform et de GO est un plus Vous travaillez dans un contexte Infra, vous maitrisez le cloud (GCP) et avez une experience confirmée en kafka Vous connaissez Google Cloud Platform et K8S Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Une automatisation de tous les tests est le graal que vous souhaitez atteindre pour dormir la nuit et le week-end.

Job Vacancy
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Job Vacancy
Senior / Tech Lead Java - Market Risk (Cloud-native, DDD, Event-Driven)
Nous accompagnons notre client pour la refonte d’une application Market Risk afin de passer d’un système historique à une plateforme cloud-native (Java). L’objectif à court terme est de réussir un POC pour poser le socle fonctionnel et technique, puis industrialiser. Ce qui doit être construit : une application structurée en DDD, pilotée par un moteur d’orchestration / workflow, avec une GUI dédiée à la traçabilité des données tout au long des processus métier. La base cible est SingleStore (ou équivalent SQL distribué). Le déploiement se fera sur cloud interne ou Google Cloud Platform (GCP). Pendant la transition, le nouveau système cohabitera avec le legacy : la capacité à réaliser le branchement est donc essentielle pour livrer vite sans perturber l’existant. Pour cela, nous recrutons un profil capable de tenir la vision d’architecture et de livrer le code : un(e) ingénieur(e) expérimenté(e). Il/elle travaillera de concert avec un(e) DevOps pour la chaîne CI/CD et l’environnement cloud-native. Les missions du poste : Architecture cible & transition : définir les bounded contexts (DDD), conduire les ateliers , sélectionner les patterns d’intégration ; orchestrer la transition legacy vers la nouvelle application. Delivery & code : concevoir et développer des microservices Java de production (état de l’art), implémenter la mécanique évènementielle, modéliser et exécuter les workflows métier, contribuer à la GUI. Standards & fiabilité : poser les normes d’ingénierie (sécurité, observabilité, performance, testabilité), mettre en place les contrats de données et le versioning de schémas. Collaboration DevOps : travailler au quotidien avec le/la DevOps pour une chaîne CI/CD robuste, IaC, Kubernetes, observabilité et déploiements progressifs. Branchement au legacy : concevoir/maintenir les adapters, data contracts et synchronisations nécessaires pendant toute la phase de transition.

Contractor job
Consultant SRE
Votre rôle couvrira à la fois des activités opérationnelles (assurer le run, automatiser les infrastructures, investiguer et résoudre les anomalies complexes) et des activités d’accompagnement (diffusion des pratiques SRE, coaching, transfert de compétences, participation à la communauté Ops cross platform Excellence Opérationnelle / SRE). Vous apporterez un regard critique et pragmatique, en challengeant les pratiques existantes et en proposant des solutions simples et efficaces, adaptées aux besoins des équipes et aux enjeux de croissance de la plateforme. Une bonne connaissance du développement sera essentielle pour collaborer efficacement avec les équipes produit, contribuer à la mise en place de SLO et d’Error Budgets, et soutenir la réduction du toil. MISSIONS PRINCIPALES : - Automatiser et industrialiser la mise en place et l’administration des infrastructures. - Accompagner la croissance de l’utilisation des produits et optimiser leur performance et leur résilience. - Faire évoluer et documenter la chaîne de tooling (déploiement, supervision, observabilité, développement). - Contribuer aux projets et initiatives transverses de la communauté Ops/SRE avec une approche orientée résultats. - Optimiser les coûts des infrastructures tout en garantissant la disponibilité et la fiabilité des services. - Analyser et améliorer en continu l’infrastructure (monitoring, performance, optimisation). - Investiguer et corriger les anomalies techniques complexes (root cause analysis). - Accompagner les équipes de développement et opérationnelles dans l’adoption, la mise en œuvre et l’animation des pratiques SRE (SLO, Error Budget, post-mortems, réduction du toil). - Participer activement à la vie de la communauté Ops cross platform en partageant les bonnes pratiques et en renforçant l’autonomie des différents acteurs.
Job Vacancy
Product Owner GCP
Vous rejoignez l’équipe Cloud Public, au sein de laquelle vous intégrerez la squad GCP. Vous aurez en charge le delivery technique des éléments de roadmap décidés. Vous serez responsable de la gestion du backlog et de l’animation de la squad GCP. Le périmètre de cette Squad s’étend de la conception technique du produit, de sa sécurisation, de sa mise en œuvre opérationnelle, de son maintien en condition opérationnelle en production et sa mise en œuvre financière. Vous évoluerez dans un environnement technique riche, distribué, sécurisé et hautement disponible. L’équipe est organisée en Agile. A ce titre, vos missions principales seront : o Mise en œuvre des actions en déclinaison de la Roadmap o Gestion du backlog produit et de son traitement en animant les ressources de la squad o Vision à 360 de toutes les activités relatives au produit o Animation de la squad et des contributeurs en coordonnant les activités et en animant la comitologie du produit o Piloter le budget de Build o Participer à la construction du budget Build et Build to run et optimiser le budget Run du produit en remontant les besoins au Product Manager o Communication interne Socle o Communication externe Socle: Pôles et Clusters du client, Entités du groupe

Contractor job
Customer Success Engineering - Architecte GCP - Genie civile - Full remote (H/F)
Pour répondre à une demande croissante et spécifique du domaine applicatif lié au support client, nous recherchons un consultant en ingénierie de la réussite client pour un renfort ponctuel jusqu'à la fin de l'année 2025. ## Missions Assurer le support de niveau 3 et le conseil en architecture GCP pour les utilisateurs internes. Collaborer avec les équipes engineering et customer support pour définir et implémenter des stratégies cloud. Participer aux activités transverses, telles que la sécurité réseau et le cloudsec. Être un interlocuteur clé pour les clients internes, assurant une communication fluide et efficace. Contribuer à la mise en place et au reporting hebdomadaire des différents chantiers en cours. Accompagner les processus d'intégration dans la refonte de l'activité Customer Success Engineering. Participer à des cérémonies trimestrielles de planification des releases. ## Stack technique GCP : architecture et support. Expérience en débuggage de niveau 3. Agile Methodology pour le développement et la gestion de projet. Interaction avec les systèmes de sécurité cloud (CloudSec) et réseaux (CyberSec). CRM pour le suivi client et le reporting
Job Vacancy
Expert Power BI (H/F)
Définir l’architecture des solutions Power BI, modéliser les données (modèle en étoile, Power Query, DAX) et concevoir des tableaux de bord performants. Mettre en place les bonnes pratiques de gouvernance Power BI (Workspaces, accès, partages, cycle de vie) Interagir avec les métiers pour comprendre les besoins, les challenger et les traduire en solutions techniques robustes.Analyser et recueillir les besoins des clients Rédiger les spécifications fonctionnelles et techniques Concevoir des datawarehouses et des datamarts Développer des procédures d’alimentation (ETL) et/ou de reporting Réaliser les phases de test et de recette Assurer le suivi et la mise en production Rédiger la documentation technique Animer des sessions de formation auprès des utilisateurs

Job Vacancy
Data Engineer GCP & Talend
Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).
Job Vacancy
Ingénieur API & Intelligence Artificielle (H/F)
Nous recherchons un API & Prompt Engineer expérimenté pour rejoindre une équipe engagée dans le développement d’une plateforme SaaS innovante dédiée au calcul d’empreinte environnementale (carbone, hydrique, biodiversité). Vous contribuerez à l’intégration de l’IA dans une gamme de produits digitaux stratégiques, en lien direct avec les équipes produit et techniques. 🎯 Missions Concevoir, développer et optimiser les agents AI et leurs fonctionnalités. Écrire, tester et améliorer des prompts . Définir et développer les APIs nécessaires au fonctionnement des agents. Contribuer au développement de nouvelles fonctionnalités en mode collaboratif. Travailler au quotidien avec Product Owners, Product Managers, développeurs et UX Designer. Garantir les bonnes pratiques de développement et la qualité technique des livrables. 🔧 Compétences recherchées 5+ ans d’expérience en développement logiciel, notamment en Python . Solide maîtrise de la conception d’APIs . Expérience confirmée en intégration de solutions AI . Bonne connaissance des méthodologies Agile (Scrum, CI/CD, GitLab, etc.) . Connaissance de l’ environnement Cloud (GCP apprécié). Excellentes qualités relationnelles et capacité à travailler en équipe. 📍 Localisation & organisation Basé en Île-de-France. Télétravail possible jusqu’à 2 jours par semaine . Équipe projet internationale et pluridisciplinaire (12 personnes). 📅 Démarrage & durée Démarrage : ASAP – septembre 2025 . Mission longue durée : 12 mois et plus . Positionnement possible en CDI ou en freelance (ouverture aux sous-traitants).
Job Vacancy
Architecte GCP H/F
Définition de la prestation Expertise Cloud Platforms Maîtrise approfondie de Google Cloud Platform : Cloud Run, GKE, Cloud Storage, BigQuery, Pub/Sub, Cloud Functions, VPC, IAM, Security Command Center, etc. Solide expérience en conception de stratégies Cloud, élaboration de roadmaps techniques et production de documentation d’architecture. Expérience confirmée dans la réalisation de PoC et l’évaluation critique de nouvelles technologies Cloud. Capacité à piloter la gouvernance Cloud (policies, sécurité, FinOps, gestion des identités et des accès, tagging). DevOps et Infrastructure as Code (IaC) : Maîtrise des outils Terraform, GitLab CI, Jenkins, Bitbucket, GIT/GITFLOW. Connaissances solides des outils CI/CD (GitLab CI, Jenkins, Git) Scripting Bash/Python pour l’automatisation et la création d’outils internes

Contractor job
Cloud engineer
A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes GCP/Kubernetes - Confirmé - Impératif CI/CD - Confirmé - Impératif Français Courant (Impératif) Anglais Professionnel (Impératif)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Recommendations for the Best Marble Vanity Top Brands
- RECOVER HACKED FUDS GO TO VIRTUAL FUNDS RESURRECTION
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- PYRAMID HACK SOLUTION // TRUSTED EXPERTS FOR FAST AND SECURE RECOVERY
- ETHEREUM & USDT RECOVERY SOLUTION REVIEW: HIRE FUNDS RECLAIMER COMPANY
- HOW CAN SOMEONE RECOVER A STOLEN CRYPTO FROM A SCAMMER'S WALLET? CONTACT FUNDS RECLAIMER COMPANY
Jobs by city
Jobs by country
Contract roles and jobs for Google Cloud Platform (GCP)
DevOps Engineer (Cloud)
The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.
Explore contract role and jobs for Cloud Architect .
Find out the jobsSystems & Networks Engineer
The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.
Explore contract role and jobs for Systems & Networks Engineer .
Find out the jobsInfrastructure and Production Manager
The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs