Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 123 résultats.
CDI
Freelance

Offre d'emploi
Expert Kubernetes / DevOps

Publiée le
Ansible
Azure
Cloud

3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
Freelance

Mission freelance
Senior Data Engineer GCP (H/F)

Publiée le
Google Cloud Platform (GCP)

12 mois
550 €
Paris, France
Télétravail partiel
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.
Freelance
CDI

Offre d'emploi
TECH LEAD IA

Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI

6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Freelance
CDI

Offre d'emploi
Expert Sécurité Cloud spécialisé en IAM H/F

Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)

36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Ingénieur Cloud GCP - Habilitable & Certifié GCP & K8s

Publiée le
CI/CD
Cloud
Docker

6 mois
Paris, France
Télétravail partiel
Ingénieur Cloud GCP intervenant au sein d’un programme de migration on-premise vers Google Cloud dans un environnement Défense. Vous concevez et déployez des architectures GCP, administrez et optimisez des clusters GKE, développez des modules Terraform et contribuez à l’automatisation CI/CD. Vous collaborez avec les architectes pour définir les standards, sécuriser les environnements et documenter les bonnes pratiques. Le poste exige rigueur, autonomie et une habilitation en raison du contexte sensible.
Freelance

Mission freelance
Développement Grid/Cloud (C++/Python)

Publiée le
Bash
C/C++
Git

6 mois
Paris, France
Télétravail partiel
Contexte Intervention pour un grand compte financier au sein du pôle Pricing & Analytics – Global Market & Risks. Intégration dans une équipe transverse travaillant sur les librairies de valorisation pour les produits dérivés Equity. Environnement technique exigeant, stack hybride on-premise / cloud. Missions Participer à l'intégration d’un nouveau soft de distribution de calculs (ArmoniK) Accompagner les équipes IT Quants dans la migration de Datasynapse Réaliser des POC techniques Collaborer avec l’éditeur Aneo Contribuer aux sujets R&D (calcul GPU, mémoire) Maintenir et supporter les solutions en production (niveau 3) Compétences attendues Expertise en développement : C++, Python, Bash Très bonne maîtrise des environnements Grid & Cloud Expérience dans des contextes HPC (calculs distribués, Monte Carlo) Connaissances systèmes : Linux, Windows Maîtrise des outils DevOps : Git, Jenkins, XLR/XLD Anglais courant
CDI

Offre d'emploi
Data Analyst spécialisé données RH & qualité de données

Publiée le
Azure
Data quality
Google Cloud Platform (GCP)

42k-60k €
Paris, France
Télétravail partiel
📢 Recrutement CDI – Data Analyst spécialisé données RH & qualité de données Nous recrutons un Data Analyst en CDI pour intervenir sur des sujets de fiabilisation et structuration de données RH et identités au sein d’un environnement data transverse et stratégique. 🎯 Votre rôle Vous interviendrez sur des données collaborateurs (internes, externes, organisations, comptes) afin d’en garantir la cohérence, la fiabilité et l’exploitabilité. Vous travaillerez en lien avec des équipes data, RH et sécurité sur des flux multi-sources. 🛠 Vos missions principales Analyser et comprendre des données issues de plusieurs systèmes (notamment RH) Détecter les incohérences, doublons et données manquantes Mettre en place des règles de contrôle et d’amélioration de la qualité des données Participer à la structuration d’un référentiel de données fiable Produire des indicateurs et tableaux de bord de suivi (qualité, complétude, fiabilité) Documenter les jeux de données et les règles associées
Freelance

Mission freelance
Chef de Projet Technique DATA

Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)

6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
Machine Learning Engineering

Publiée le
Google Cloud Platform (GCP)
MLOps
Python

3 ans
400-580 €
Paris, France
Télétravail partiel
Développer et optimiser des modèles de recommandation Concevoir des pipelines ML robustes et scalables Déployer des modèles en production (API) Participer à l’A/B testing et à l’évaluation continue des performances Contribuer à l’évolution de l’architecture ML dans un environnement moderne (GCP) Profil recherché: Solide expérience en Machine Learning Engineering Excellente maîtrise de Python, GCP et des frameworks ML Expérience en MLOps, CI/CD, monitoring Capacité à travailler sur des volumes de données conséquents Rigueur, sens de l’analyse et goût pour l’innovation
Freelance

Mission freelance
DevOps Cloud GCP - Anthos

Publiée le
Ansible
Google Cloud Platform (GCP)
Kubernetes

12 mois
530-570 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.
Freelance

Mission freelance
PMO Transformation Cloud Hybride

Publiée le
AWS Cloud
Azure
Direction de projet

6 mois
800-1 200 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un PMO Transformation dans le cadre d’un projet de transformation Cloud Hybride ambitieuse Vos missions : Agir comme PMO de programme aux côtés du directeur de la transformation cloud (suivi planning, risques, budgets, dépendances, reporting comités). Piloter opérationnellement les streams de transformation liés à la plateforme d’ingénierie : cloud privé OpenShift, cloud public (GCP / Azure / AWS), outillage CI/CD, modèles de déploiement. Coordonner les équipes projet multi‑sites (Niort, Paris, Le Mans…) et les parties prenantes (architectes, équipes de développement, exploitation, sécurité). Contribuer, en tant que expert de l’hybridation d’architectures , à challenger les choix techniques 2/3‑tiers et les modèles de déploiement applicatif. Structurer et animer la gouvernance de la transformation : rituels, indicateurs de progrès, suivi des chantiers (build, migration, run). Préparer et consolider les livrables de pilotage : roadmaps, dashboards d’avancement, comptes‑rendus de comités, plans d’actions. Faciliter l’appropriation de la plateforme par les équipes de développement et d’hébergement (acculturation, accompagnement au changement).
Freelance

Mission freelance
Architecte Technique Multi-Cloud

Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
800-1k €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un architecte technique multi-cloud dans le cadre d’un projet de transformation Cloud Hybride ambitieuse. Vos missions : En tant qu'Architecte technique, votre mission principale sera de garantir la cohérence, la sécurité et l'opérabilité des solutions d'hébergement. Concevoir et valider les architectures cibles pour les applications internes et externes, en s'appuyant sur un modèle hybride/multi-cloud. Définir et faire évoluer les patterns d'hybridation entre le Cloud Privé (utilisant OpenShift comme plateforme de conteneurisation et d'orchestration Kubernetes) et les Clouds Publics (principalement Google Cloud, Microsoft Azure, et AWS). Assurer la standardisation et la bonne intégration des services PaaS/IaaS des différents fournisseurs. Participer activement à la définition et à l'implémentation de la Platform Engineering pour faciliter le déploiement et l'exploitation par les équipes de développement (culture DevOps/GitOps). Mettre en place et optimiser les outils et processus de CI/CD, de gestion de l'hébergement et de l'observabilité.
Freelance
CDI

Offre d'emploi
Architecte Sécurité Cloud – Organisation Internationale / Cloud Publics / Sécurité Avancée H/F

Publiée le
AWS Cloud
Azure
Cloud

3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
🎯 Missions & Livrables1. Conception & déploiement de solutions de sécurité Définir des architectures de sécurité Cloud robustes (Zero Trust, IAM, segmentation, secrets…). Assurer le rôle de chef de projet : cadrage, budget, planning, reporting. Concevoir et déployer des solutions conformes aux politiques internes et normes globales. Documenter et maintenir le portefeuille de solutions de sécurité. Intégrer les tests / fonctionnalités de sécurité dans les projets d’infrastructure & cloud. 2. Secure by Design & accompagnement des projets Porter et promouvoir l’approche Secure by Design sur l’ensemble des initiatives. Réaliser des analyses de risques techniques et proposer des remédiations. Accompagner les équipes techniques dans la gestion des aspects sécurité. Définir, suivre et piloter les plans d’actions sécurité associés aux projets. 3. Définition des standards & conformité Contribuer à la création de politiques, standards et bonnes pratiques internes. Participer à l’automatisation des contrôles et au suivi de la conformité (CSPM, CIEM, indicateurs…). Appuyer la mise en conformité vis-à-vis des réglementations internationales, dont NIS2 . Participer à la veille technologique et à l’analyse des nouvelles menaces cyber.
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

123 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous