Find your next tech and IT Job or contract Google Cloud Platform (GCP)
What you need to know about Google Cloud Platform (GCP)
Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Job Vacancy
Devops Senior KAFKA (H/F)
Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Contractor job
Développeur Full Stack
API TU Conceptions techniques Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Secondaire) Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: - Animation des prix d'achats des fournisseurs - produit critique déployé - produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire - refonte V2 technique à lancer en janvier - organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF - 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum - Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front - Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging de type Kafka (Redis est un plus) - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure

Contractor job
Data Analyste H/F
Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.
Job Vacancy
Architecte technique sécurité
Dans le cadre d’un vaste programme de transformation stratégique, notre client, acteur majeur du secteur bancaire, recherche un Architecte technique sécurité. Vous interviendrez sur des projets de convergence post-fusion/acquisition afin de garantir la sécurisation des infrastructures IT et des processus associés. Votre rôle consistera à piloter l’intégration des systèmes en veillant au respect des exigences de cybersécurité, en collaboration avec des équipes pluridisciplinaires (techniques, métiers, RSSI). Vos principales missions seront : Pilotage de projets : planification, suivi et coordination des projets de cybersécurité liés aux opérations de convergence. Analyse des risques : identification des vulnérabilités, évaluation des menaces et proposition de solutions adaptées. Intégration sécurisée : mise en place et supervision des architectures sécuritaires (cloud, on-premise, hybride). Coordination transverse : collaboration étroite avec les équipes techniques et fonctionnelles pour assurer la cohérence des solutions. Veille et conformité : suivi des évolutions technologiques, réglementaires (RGPD, LPM, etc.) et anticipation des nouvelles menaces. Accompagnement au changement : sensibilisation et formation des équipes aux nouvelles pratiques de cybersécurité.
Contractor job
INGENIEUR PRODUCTION SYSTEME CLOUD H/F
Nous sommes actuellement à la recherche d'un ingénieur Production Système Cloud. En tant qu'Ingénieur(e) de Production Système & Cloud, vous jouerez un rôle clé dans le maintien et l'évolution de nos environnements système et cloud, tout en participant à l'amélioration continue. Votre mission principale consistera à assurer la disponibilité, la sécurité et l'optimisation de nos plateformes, en intervenant aussi bien sur des aspects opérationnels (run). /!\: Nous demandons une expérience solide sur les environnements Azure et Microsoft Windows Server.

Contractor job
Administrateur Réseaux & Sécurité
Description détaillée Nous recherchons pour le compte de notre client un Administrateur Réseaux & Sécurité. Voici les réalisations attendues : - Mener et Participer à la mise en production des changements sur l'infrastructure Réseau & des équipements de sécurité: expérience avérée en firewalls - Palo Alto, Checkpoint, OCI et Forti fortement souhaitée, - Assurer la cohérence technique du périmètre Infrastructure Réseaux avec d'autres périmètres (Services Cloud - Azure, GCP, Gitcloud, NSG, NSX, Services sur des sites distants, ...), - Participer à la mise en œuvre solutions d'architecture d'infrastructures Datacenter Réseau & des équipements de sécurité (Services Firewall, Équipements Cœurs de réseau) via notamment l'implémentation des exigences de sécurité. Le profil a pour principales activités : l’analyse (en cohérence avec les stratégies de sécurité de l’équipe RSSI) des demandes d’ouverture de flux pour implémenter les règles sur les différents environnements techniques l’ assistance aux demandeurs pour interconnecter via VPN Ipsec les partenaires l'assistance aux demandeurs pour le troubleshooting des problématiques de flux l’assistance aux demandeurs dans leur demandes d’ouverture de flux Astreinte possible en cas de la nécessité du projet.
Job Vacancy
Architecte Opérationnel Cloud Public – GCP
Missions principales : • Concevoir et documenter les architectures opérationnelles GCP (Compute, stockage, réseau, sécurité, supervision). • Définir les bonnes pratiques de design cloud (patterns, standards, guides). • Réaliser des POC techniques et valider les solutions en environnement hybride (on-prem et cloud). • Garantir l’intégration avec le SI existant : DNS, Active Directory, bastion, fédération d’identité. • Contribuer aux études d’impacts et recommandations FinOps pour la maîtrise des coûts. • Participer aux revues de conception, aux comités techniques et à la gouvernance Cloud.

Contractor job
Architecte Cloud AWS et GCP (H/F) - Freelance
Lieu : Lyon Part-Dieu (hybride possible) Démarrage : 01 novembre Durée : Longue mission (renouvelable) TJ : 650€ (senior) – 800€ (expert) 🎯 Contexte & Mission Nous recherchons un Architecte Cloud spécialisé AWS et GCP pour accompagner un acteur majeur dans sa transformation numérique. Votre rôle consistera à concevoir, déployer et optimiser des solutions cloud sécurisées et performantes, en garantissant leur scalabilité et leur intégration au SI existant, dans un contexte multicloud (AWS, GCP, Azure, cloud de confiance). 🔑 Responsabilités En tant qu’Architecte Cloud, vos principales missions seront : Conception & Développement Concevoir et développer des solutions de platform engineering cloud (AWS, GCP, Azure, clouds de confiance). Participer à la mise en place des futures zones d’hébergement de confiance. Développer/configurer le socle des produits de sécurité cloud. Optimiser la performance et les coûts des services plateformes. Infrastructure as Code, CI/CD & SRE (Lot A) Encadrer la conception et la mise en œuvre des modules Terraform à l’état de l’art. Définir et déployer des pipelines CI/CD en contexte multicloud. Intégrer et configurer les solutions de monitoring & observabilité . Proposer des innovations (ex : prompt-driven development ). Apporter une expertise en stratégie de migration cloud . Sécurisation des pipelines de déploiement (Lot B) Garantir l’intégration des chantiers sécurité dans les cycles agiles (daily, sprint review, etc.). Assurer la surveillance quotidienne des vulnérabilités ( Security Hub, AWS Config, GuardDuty, Inspector… ). Intégrer systématiquement les contrôles sécurité dans les pipelines ( SAST, DAST, revues de code ). Analyser les retours des outils de sécurité et coordonner les remédiations avec les experts cyber. 🛠️ Environnement technique Clouds : AWS, GCP, Azure, clouds de confiance Outils : Terraform, GitLab, GitLab CI, JIRA, Confluence, ServiceNow, Artifactory, Sonar, Harbor, WSL 👤 Profil recherché Expérience confirmée ou expertise en architecture cloud (AWS, GCP, Azure). Maîtrise des pratiques IaC, CI/CD, SRE, DevSecOps . Capacité à travailler en équipe et à collaborer avec les parties prenantes (IT, sécurité, métiers). Anglais technique requis. Une certification est un plus apprécié : AWS Certified Solutions Architect Google Cloud Associate Cloud Engineer Azure Solutions Architect Expert 🎁 Avantages (via le client final / ESN) Prime de Noël, vacances, mariage et naissance Prime de cooptation attractive Aides à la mobilité verte (engagement écologique) Formation continue : 1 formation/an (technique ou fonctionnelle) 👉 Une mission d’envergure pour un expert Cloud souhaitant évoluer dans un environnement multicloud exigeant et innovant , au cœur de la transformation numérique d’un grand compte.
Contractor job
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Job Vacancy
Data Eng GCP Rouen
Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Contractor job
Expert Sécurité Cloud Public
Dans le cadre du renforcement de nos équipes Cybersécurité, nous recherchons un Expert Sécurité Cloud Public confirmé (AWS, Azure, GCP). Vous interviendrez sur la définition, la mise en œuvre et le suivi des bonnes pratiques de sécurité dans des environnements Cloud à grande échelle. Vos principales missions seront de : Définir et organiser les policies de sécurité dans les environnements Cloud. Assurer la protection des coffres et secrets (Key Vaults, Secret Manager, etc.). Implémenter et contrôler les règles de sécurité et de conformité . Identifier les écarts et adresser les demandes de remédiation . Réaliser la modélisation des droits et la gestion des privilèges IAM . Mettre en place et suivre les mesures de conformité réglementaire . Contribuer à la sécurisation du design des architectures Cloud (landing zones, PaaS, services managés). Valider les services proposés par les Cloud Providers sous l’angle sécurité .
Contractor job
Développeur Back-End AEM & Team Lead
Contexte Dans le cadre d’un projet de migration et de refonte de sites web sur Adobe Experience Manager (AEM) Cloud , nous recherchons un Développeur Back-End AEM & Team Lead expérimenté. Vous serez responsable de la conception et du développement back-end sur AEM, tout en jouant un rôle de référent technique et de manager de proximité auprès d’une feature team. Missions principalesDéveloppement & Architecture Concevoir et développer des composants et services back-end sur AEM (Cloud). Intégrer AEM avec d’autres systèmes via des API REST/GraphQL. Garantir la performance, la sécurité, l’évolutivité et la maintenabilité des sites. Participer aux choix d’architecture applicative et aux discussions techniques stratégiques. Contribuer à l’amélioration continue et résoudre les problématiques techniques. Leadership & Support technique Encadrer et accompagner les développeurs back-end (internes et externes). Valider les Merge Requests (MR) et assurer la qualité du code. Collaborer avec les Product Owners pour cadrer les besoins techniques. Promouvoir les bonnes pratiques de développement (CI/CD, tests, automatisation). Être un point de contact privilégié des architectes et leads techniques transverses. Collaboration & Communication Travailler en étroite collaboration avec les équipes front-end, UX/UI, design et produit. Documenter les développements et assurer le partage de connaissances. Garantir une communication claire et régulière sur l’avancée des sujets techniques.

Job Vacancy
Ingénieur système DevOps
Il est attendu de la prestation d’apporter une expertise technique sur l’outillage DevSecOps avec GitlabCI afin de maintenir et faire évoluer la Plateforme DevOps en fonction des besoins qui ne cessent de croître ainsi que de contribuer à la montée en compétence de l’équipe sur l’outil. Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs du client. Dans ce cadre il est attendu une expertise sur l’outillage Gitlab pour participer aux travaux de migration de Jenkins vers Gitlab. Il sera demandé au titulaire de répondre aux différentes activités : Développement Tests Accompagnement Support La prestation porte sur l’outil Gestionnaire de code source de la Plateforme DevOps : GitLab CE et GitLab EE, Gitlab Ultimaten, sur la stack d’indicateur de la plateforme logmining DevSecOps avec les outils Mimir et Loki et Grafana Les activités principales identifiées pour la mission sont les suivantes : Optimisation des instances afin d’améliorer les performances des outils, Mise en place et partage de bonnes pratiques autour des outils, Assurer le suivi, l’analyse et le traitement des incidents, Optimisation de la plateforme Gitlab sur Openshift Assurer le support auprès de l’équipe Projet Migration Jenkins2GitlabCI Suivre et exploiter des environnements de Développement, Participation au POC Gitlab Ultimate et DUO Développement des services conteneurisés (Docker/Openshift) Développement de scripts Python Récupération d’indicateurs (InfluxDB, loki, mimir, Grafana ect..) Rédaction des documentations associées aux travaux réalisés ( README, Confluence) Livrer la solution à l’exploitant et l’assister lors de la MEP, Réaliser la documentation technique, Les technologies du périmètre sont : Linux, RedHat Apache, Tomcat PostgreSQL,InfluxDB Python OpenShift, Kubernetes, Docker GitLab (CE/EE/Ultimate, CI-CD,components), Jenkins, Nexus, Sonar, Checkmarx, Jira/Confluence, Grafana, InfluxDB Cloud : AWS,GCP Méthodologie SRE Mimir Loki Grafana Coaching Connaissance des cultures agiles ((les valeurs, principes et les framework tel que SCRUM, KANBAN et SAFe) et les avoir implémentés dans différents contextes Connaissance des bonnes pratiques DevSecOps et SRE Connaissance des outils d’une plateforme DevOps pour réaliser les pratiques Non à la sous traitance.

Contractor job
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Job Vacancy
Data Engineer GCP + Talend
Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

Contractor job
Data Analyst
Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
Contract roles and jobs for Google Cloud Platform (GCP)
DevOps Engineer (Cloud)
The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.
Explore contract role and jobs for DevOps Engineer (Cloud) .
Find out the jobsCloud Architect
The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.
Explore contract role and jobs for Cloud Architect .
Find out the jobsSystems & Networks Engineer
The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.
Explore contract role and jobs for Systems & Networks Engineer .
Find out the jobsInfrastructure and Production Manager
The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.
Explore contract role and jobs for Infrastructure and Production Manager .
Find out the jobs