Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 221 results.
Permanent

Job Vacancy
Lead Developer Full Stack (PHP/JavaScript)

Published on
Angular
Google Cloud Platform (GCP)
Javascript

60k-65k €
Sèvres, Ile-de-France
Hybrid
Une entreprise technologique en forte croissance, spécialisée dans les plateformes SaaS à grande échelle dans le secteur de la mobilité électrique, entre dans une phase stratégique : refonte technique, montée en gamme produit, accélération du développement. Dans ce contexte, nous recherchons un Lead Developer Full Stack pour reprendre le leadership front-end et accompagner une transformation ambitieuse. 🎯 Les missions 1) Leadership technique Devenir le/la référent·e front-end Encadrement technique d’un développeur Reprise progressive du scope d’un expert interne sortant 2) Développement Full Stack Concevoir & développer des applications web à forte volumétrie Stack : PHP/Symfony, JavaScript (React/Angular) Mise en place des bonnes pratiques : qualité, performance, architecture 3) Architecture & décisions techniques Participer à la refonte de plusieurs produits SaaS Contribuer aux choix technologiques (frameworks, patterns, outillage) Travailler sur de nouveaux modules stratégiques et fonctionnalités complexes 4) Collaboration & impact produit Collaboration étroite avec le CTO & le Product Owner Participation à l’estimation, la planification et la priorisation Capacité à challenger, proposer, innover
Contractor
Permanent

Job Vacancy
Data Scientist

Published on
Google Cloud Platform (GCP)
Machine Learning

1 year
40k-45k €
400-620 €
Ile-de-France, France
Hybrid
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Contractor
Permanent

Job Vacancy
Architecte Sécurité Cloud – Organisation Internationale / Cloud Publics / Sécurité Avancée H/F

Published on
AWS Cloud
Azure
Cloud

3 years
40k-45k €
450-550 €
Paris, France
Hybrid
🎯 Missions & Livrables1. Conception & déploiement de solutions de sécurité Définir des architectures de sécurité Cloud robustes (Zero Trust, IAM, segmentation, secrets…). Assurer le rôle de chef de projet : cadrage, budget, planning, reporting. Concevoir et déployer des solutions conformes aux politiques internes et normes globales. Documenter et maintenir le portefeuille de solutions de sécurité. Intégrer les tests / fonctionnalités de sécurité dans les projets d’infrastructure & cloud. 2. Secure by Design & accompagnement des projets Porter et promouvoir l’approche Secure by Design sur l’ensemble des initiatives. Réaliser des analyses de risques techniques et proposer des remédiations. Accompagner les équipes techniques dans la gestion des aspects sécurité. Définir, suivre et piloter les plans d’actions sécurité associés aux projets. 3. Définition des standards & conformité Contribuer à la création de politiques, standards et bonnes pratiques internes. Participer à l’automatisation des contrôles et au suivi de la conformité (CSPM, CIEM, indicateurs…). Appuyer la mise en conformité vis-à-vis des réglementations internationales, dont NIS2 . Participer à la veille technologique et à l’analyse des nouvelles menaces cyber.
Contractor

Contractor job
Pilote RSE (F/H) - 59

Published on
CI/CD
Datadog
Github

1 year
500-590 €
Ronchin, Hauts-de-France
Hybrid
Mon client recherche un Pilote SRE pour une mission freelance à Ronchin (59). Lieu : Ronchin (59) Remote : 2j par semaine Secteur : retail Durée : 1 an minimum Contexte : Vous serez associé à un domaine spécifique en collaboration avec les équipes OPS. Vous serez en charge d’améliorer la fiabilité, la performance et l’observabilité des systèmes critiques de l’entreprise. Votre rôle sera d’automatiser les processus, de réduire la dette technique et de collaborer avec les équipes Dev, Ops et Security pour aligner les pratiques SRE sur les objectifs business. Mission : Définir et suivre des SLO et SLI pour les services critiques. Automatiser les tâches manuelles (déploiements, scaling, backups) Concevoir et maintenir des dashboards Travailler avec les équipes DevOps, Cloud, Security et Développement pour intégrer les bonnes pratiques SRE Appliquer les politiques de conformité et contribuer à la sécurisation des infrastructures
Contractor
Permanent

Job Vacancy
Administrateur base de données

Published on
Elasticsearch
Google Cloud Platform (GCP)
Greenplum

1 year
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Permanent

Job Vacancy
Développeur Full-Stack

Published on
Angular
Google Cloud Platform (GCP)
Java

38k-45k €
Lille, Hauts-de-France
Hybrid
Ce que nous offrons : - La chance de travailler avec des technologies de pointe telles que Java, Javascript, Node.js, Vue.js, Spring, React, CI/CD, Kafka, Kubernetes, Cerberus, GCP, et bien plus encore. - Un rôle crucial dans une équipe qui valorise l'innovation, l'apprentissage continu et le développement professionnel. - Une position basée dans la métropole lilloise, au coeur d'une communauté technologique dynamique. Missions pour le Développeur Fullstack : - Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. - Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP. - Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. - Participation active à la phase de conception produit, en apportant des idées innovantes et en travaillant sur des prototypes. - Gestion et mise en oeuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. - Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.
Contractor
Permanent

Job Vacancy
Expert Sécurité Cloud spécialisé en IAM H/F

Published on
AWS Cloud
CI/CD
Google Cloud Platform (GCP)

36 months
50k-65k €
530-600 €
Paris, France
Hybrid
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Permanent
Contractor

Job Vacancy
Administrateur Hadoop Infra– MCO & Exploitation (H/F)

Published on
Google Cloud Platform (GCP)
Hadoop
HDFS (Hadoop Distributed File System)

6 months
40k-45k €
400-550 €
Hauts-de-Seine, France
Hybrid
Contexte Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service (KaaS). Missions principales Exploitation & MCO de la plateforme Big Data - Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop. - Garantir la disponibilité, la performance et la sécurité des clusters. - Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.). - Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité. Gestion des incidents et support de niveau 2/3 - Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et proposer des plans d’actions correctifs. - Assurer le suivi jusqu’à résolution complète. - Rédiger et maintenir la documentation technique associée. Amélioration continue & automatisation - Contribuer aux améliorations continues de la plateforme : performance, architecture, déploiements. - Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…). - Participer aux évolutions de l’écosystème et aux projets de transformation Big Data. Environnement Cloud (GCP) - Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc, Cloud Storage…). - Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP. - Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP. Gestion et exploitation des plateformes KaaS - Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent interne). - Déployer et maintenir les services Data ou applicatifs tournant sur KaaS. - Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge. - Contribuer à la sécurisation et à la standardisation des déploiements. Collaboration & communication - Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et Sécurité. - Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets. - Participer aux rituels opérationnels (briefs, comités, revues techniques…). Profil recherché Compétences techniques - Maîtrise de l’écosystème Hadoop. - Connaissance opérationnelle de GCP. - Expérience en Kubernetes / KaaS. - Compétences en automatisation (Python, Shell, Ansible…). - Connaissances en monitoring (Grafana, Prometheus, ELK…). - Compréhension des enjeux de sécurité et de gouvernance des données. Soft skills - Capacité d’analyse et résolution de problèmes complexes. - Bonne communication et esprit d’équipe. - Rigueur, sens du service et autonomie. - Proactivité dans l’amélioration continue.
Contractor

Contractor job
Data Engineer/ Expert GCP

Published on
BigQuery
Cloud
Data science

12 months
530 €
Toulouse, Occitania
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Contractor

Contractor job
Tech Lead Data Engineer - IoT / Java & Cloud

Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 months
720-730 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Contractor

Contractor job
Network Ops Engineer sénior

Published on
DevOps
Google Cloud Platform (GCP)
Network

3 years
100-510 €
Lille, Hauts-de-France
Hybrid
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Permanent
Contractor

Job Vacancy
Data Engineer GCP

Published on
BigQuery
Google Cloud Platform (GCP)

6 months
Rouen, Normandy
Hybrid
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Contractor

Contractor job
DevOps Cloud GCP - Anthos

Published on
Ansible
Google Cloud Platform (GCP)
Kubernetes

12 months
530-570 €
Paris, France
Hybrid
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.
Contractor

Contractor job
Développeur SQL (F/H)

Published on
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer

6 months
Lille, Hauts-de-France
Hybrid
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
Contractor
Permanent

Job Vacancy
Chef de Projet Technico-Fonctionnel ou Product Lead,

Published on
Agile Scrum
API REST
Confluence

3 years
40k-55k €
400-420 €
Ile-de-France, France
Hybrid
Piloter la roadmap globale du programme IS/IT en garantissant la cohérence des évolutions, la bonne priorisation des sujets et l’alignement des équipes métiers et techniques. Vous serez le référent de la vision produit et le garant du rythme d’avancement. • Mettre en place, suivre et optimiser les interfaces entre les systèmes en vous appuyant sur les API REST et les outils tels que Postman ou Bruno. Vous accompagnez les équipes dans la conception, la validation et la qualité des flux d’échanges de données. • Faciliter le travail des équipes projet en assurant la coordination transverse, l’animation des rituels, la bonne tenue des comités de pilotage et le respect des jalons. Vous jouez un rôle de facilitateur pour fluidifier la collaboration et lever les blocages. • Contribuer à la stratégie de tests end-to-end , en participant à la définition, la préparation et la validation des scénarios de tests entre les systèmes du groupe, l’ERP et les autres applications. Vous veillez à la qualité fonctionnelle et technique de bout en bout. • Assurer une documentation claire, structurée et centralisée sur Jira et Confluence : roadmap, flux, décisions, spécifications, comptes rendus… Vous garantissez la traçabilité et la qualité du patrimoine projet. • Accompagner la conduite du changement , notamment via la communication, la préparation de supports, les sessions de formation et l'adoption des nouveaux processus métiers. Vous aidez les équipes à s’approprier les nouveaux outils et méthodes. • Identifier en continu les risques, dépendances et axes d’amélioration , en proposant des solutions concrètes pour optimiser l’organisation, sécuriser les jalons et renforcer l’efficacité opérationnelle des équipes.
Contractor

Contractor job
PMO Transformation Cloud Hybride

Published on
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 months
800-1 200 €
Paris, France
Hybrid
Orcan Intelligence recherche pour l’un de ses clients un PMO Transformation dans le cadre d’un projet de transformation Cloud Hybride ambitieuse Vos missions : Agir comme PMO de programme aux côtés du directeur de la transformation cloud (suivi planning, risques, budgets, dépendances, reporting comités). Piloter opérationnellement les streams de transformation liés à la plateforme d’ingénierie : cloud privé OpenShift, cloud public (GCP / Azure / AWS), outillage CI/CD, modèles de déploiement. Coordonner les équipes projet multi‑sites (Niort, Paris, Le Mans…) et les parties prenantes (architectes, équipes de développement, exploitation, sécurité). Contribuer, en tant que expert de l’hybridation d’architectures , à challenger les choix techniques 2/3‑tiers et les modèles de déploiement applicatif. Structurer et animer la gouvernance de la transformation : rituels, indicateurs de progrès, suivi des chantiers (build, migration, run). Préparer et consolider les livrables de pilotage : roadmaps, dashboards d’avancement, comptes‑rendus de comités, plans d’actions. Faciliter l’appropriation de la plateforme par les équipes de développement et d’hébergement (acculturation, accompagnement au changement).

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

221 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us