Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 373 résultats.
CDI

Offre d'emploi
Tech Lead E-commerce Core Platform

ASENIUM
Publiée le
AWS Cloud
Back-end
CI/CD

70k-80k €
Paris, France
En tant que Tech Lead E-commerce Core Platform , vous définissez la vision technique, garantissez la qualité et la scalabilité des composants backend partagés (APIs, microservices, etc.). Vous collaborez avec : Le Head of Tech pour la gouvernance et la roadmap technique. Les équipes Produit, Frontend et Architecture pour aligner les solutions avec les ambitions e-commerce des Maisons. Responsabilités clés Concevoir et faire évoluer l’architecture backend (headless et SFCC). Maintenir et optimiser les composants SFCC existants. Définir les bonnes pratiques (développement, tests, sécurité). Superviser l’équipe Core Platform (revues de code, validation des PR). Documenter les intégrations et accompagner les équipes. Collaborer avec DevOps, SRE, Sécurité et Produit. Surveiller performance, fiabilité et réutilisabilité des composants. Environnement technique : Node.js, backends composables (Algolia, Contentful), OKTA, SFCC.
Freelance
CDI

Offre d'emploi
Développeur fullstack Java Vue - Lille

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
CDI
Freelance

Offre d'emploi
Data Engineer, GCP (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
CDI

Offre d'emploi
Consultant DATA (Talend DI / ESB / GCP)

adbi
Publiée le
BigQuery
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)

45k-57k €
Île-de-France, France
Dans le cadre de ses activités DATA, la DSI du Groupe recherche un profil consultant Data pour l'aider à répondre aux différentes sollicitations de ses métiers. Nous attendons ici une expérience significative en Big Query / Data Studio (ex Looker Studio) / Talend. Objectifs et livrables Au sein des équipes Echanges, Data Architecture et Datavisualisation du pôle Data de la DSI du Groupe, les tâches de la mission sont : - Développer des flux de données Talend (DI/ESB) - Participer à la migration Talend vers la version supérieure - Développer des IHM en Java - Concevoir et mettre en oeuvre le modèle de données décisionnel à partir des données applicatives remontées dans BigQuery - Préparer et transformer les données dans BigQuery - Concevoir et mettre à disposition des Objets Métier - Définir et mettre en oeuvre des règles de Data Quality - Développer des rapports Google Data Studio (ex Looker Studio) - Rédiger des spécifications techniques - Participer à la recette technique et fonctionnelle - Assurer une maintenance et un support des solutions mises en oeuvre
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
CDI

Offre d'emploi
Lead Dev

KUBE Partners S.L. / Pixie Services
Publiée le
Docker
Google Cloud Platform (GCP)
Java

Lille, Hauts-de-France
Ce que nous offrons : - La chance de travailler avec des technologies de pointe comme Java, JavaScript, Node.js, React, Vue.js, Kubernetes, Docker, et bien d'autres. - Un rôle de leader au sein d'une équipe dynamique et créative, avec la possibilité de façonner l'avenir de la technologie. - Un poste basé dans la métropole lilloise, un écosystème vibrant pour les passionnés de tech. Missions pour le Lead Developer : - Pilotage technique des projets, de la conception à la mise en production, en assurant la qualité, la performance et la sécurité des solutions développées. - Management d'une équipe de développeurs, en guidant leur montée en compétences et en promouvant les meilleures pratiques de développement. - Collaboration étroite avec les équipes produit, design et QA pour assurer l'alignement et l'excellence dans la livraison des projets. - Veille technologique continue pour intégrer de nouvelles technologies et méthodologies qui pourraient bénéficier aux projets et à l'équipe. - Développement et maintien d'une architecture scalable et performante, en utilisant Docker et Kubernetes pour l'orchestration des conteneurs.
CDI

Offre d'emploi
Data Engineer GCP H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Freelance

Mission freelance
INGÉNIEUR CLOUD PLATFORM GCP : TERRAFORM, GCP

SKILL EXPERT
Publiée le
CI/CD
DAT
Docker

48 mois
650-700 €
Paris, France
Descriptif de la mission : Mission : Ingénieur Cloud Platform GCP Quel est le contexte ? L'entreprise fait évoluer continuellement son infrastructure Cloud pour supporter des volumes de transactions croissants et répondre aux exigences de sécurité bancaire. Le département Infrastructure gère des programmes stratégiques de migration et de modernisation (Containerisation, Serverless, IaC). L'entreprise recherche un Ingénieur Cloud GCP expert, capable de concevoir, déployer et maintenir des environnements hautement sécurisés tout en assurant un reporting technique précis auprès de la direction. COMPÉTENCES EXIGÉES TERRAFORM Confirmé GCP Confirmé KUBERNETES Confirmé GOOGLE CLOUD PLATFORM Confirmé
CDI

Offre d'emploi
Data Engineer (H/F)

OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting

50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Freelance

Mission freelance
Tech Lead Full Stack Java / Angular

ESENCA
Publiée le
Angular
Google Cloud Platform (GCP)
Java

1 an
Lille, Hauts-de-France
🎯 Contexte Dans le cadre de la transformation continue de son système d’information, un acteur majeur du retail renforce ses équipes IT dédiées aux domaines approvisionnement, transport et qualité . Vous intégrerez une équipe agile organisée en plusieurs squads, en charge d’applications stratégiques couvrant notamment : le suivi des flux logistiques amont la gestion des litiges fournisseurs le suivi du cycle de vie des produits en magasin Ces applications, développées sur des stacks technologiques modernes , sont au cœur des opérations permettant d’assurer la disponibilité des produits en point de vente. Vous rejoindrez une squad spécialisée sur les sujets transport amont et gestion des flux , évoluant dans un environnement agile (Scrum) . 🧩 Mission En tant que Tech Lead Full Stack , vous intervenez à la fois sur des activités de développement et de leadership technique, avec un rôle clé dans la qualité et la performance des solutions. 🚀 Responsabilités principales1. Développement Full Stack Concevoir et développer des fonctionnalités en Java / Angular Participer activement aux développements (majorité du temps) Garantir la qualité, la performance et la maintenabilité du code 2. Leadership technique Encadrer et accompagner les développeurs de la squad Assurer le suivi technique et contribuer aux recrutements et à l’intégration Être garant des bonnes pratiques de développement 3. Qualité et excellence technique Mettre en place et faire respecter les standards qualité (tests, code review, CI/CD) Suivre les indicateurs de qualité (ex : Sonar, couverture de tests) Contribuer à la réduction de la dette technique 4. Coordination avec les équipes transverses Être l’interlocuteur technique auprès des architectes Participer aux décisions d’architecture Assurer la cohérence technique avec les autres squads 5. Amélioration continue Assurer une veille technologique active Être force de proposition sur les évolutions techniques Contribuer à l’amélioration des pratiques de développement et des outils 📦 Livrables attendus Développements robustes et documentés Revue et validation des merge requests Documentation technique Plans d’amélioration continue (qualité / dette technique) Contribution aux chiffrages et aux choix techniques 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile (Scrum) 🎯 Objectif Garantir la qualité technique, la performance et la pérennité des applications critiques , tout en accompagnant la montée en compétence de l’équipe et en contribuant activement aux développements.
Freelance

Mission freelance
Développeur Backend & Ingénieur IA Python / RAG / Cloud (H/F)

HAYS France
Publiée le
Azure
CI/CD
Docker

1 an
Strasbourg, Grand Est
Nous recherchons un professionnel spécialisé en intelligence artificielle pour intervenir sur des travaux d’analyse, de conception et d’implémentation de solutions algorithmiques. La mission porte sur des problématiques générales liées à l’exploitation de données et à l’automatisation de processus, sans communication d’informations sensibles ou spécifiques au contexte d’origine. Le consultant interviendra sur différentes phases techniques, incluant la structuration des données, le développement et l’amélioration de modèles, ainsi que leur optimisation. La mission se déroule dans un environnement organisé, avec des échanges réguliers au sein d’une équipe restreinte. Les attendus portent sur la qualité des livrables, la fiabilité des solutions produites et la capacité à travailler de manière autonome tout en respectant un cadre méthodologique défini.
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

373 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous