Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 372 résultats.
Freelance

Mission freelance
Mission freelance - Développeur Fullstack Node/Vue - Lille

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Node.js
Vue.js

6 mois
300-430 €
Lille, Hauts-de-France
Nous recherchons 1 développeur fullstack expérimenté avec des compétences DevOps éprouvées. Ce développeur intégrera l'équipe Apps du Commerçant au sein de la direction eCommerce. Le produit "Applications du Commerçant" fournit aux collaborateurs en magasin des solutions simples et optimisées d'aide à la réalisation du commerce. Notre objectif : faire gagner du temps à nos collègues en magasin. Ces outils mobiles et desktop sont réalisés en lien très fort avec les collaborateurs. Nous touchons plusieurs secteurs : réception, vente client, réserve. Il apportera de nouvelles fonctionnalités, fera du correctif de bugs et maintiendra en condition opérationnelle l'ensemble des applications. Périmètre applicatif L'équipe intervient sur les applications suivantes : PINGOUIN WEB : couteau suisse du collaborateur en magasin (fixe et mobile) - commandes client, réception palettes, rapports, EasyCapture avec IA, balisage, gestion stocks, relevés. MAGASIN PLATEFORME : commande et préparation de produits fabriqués entre magasins producteur et client - gestion des plannings de préparation et livraison. application mobile client et logiciel de borne - identification, ouverture portes, paiements. BORNE INFO PRIX : bornes client en surface de vente - prix et promotions. OOS (Out Of Stock) : outil mobile de gestion des ruptures - analyse des causes, référencement des données. GCH OUTILS : rapports métiers à partir des données GCM SOLEIL : WMS de la réserve magasin (fixe et mobile) - adressage produits, approvisionnement rayon, préparation emportées clients, inventaires. FLASHPAL : réception palettes en magasin (mobile) - visualisation réceptions, valorisations automatiques dans GCM. L'équipe est force de proposition auprès des acteurs métier. Composition de l'équipe L'équipe est constituée de : 1 PO 1 Tech Lead 2 DevOps Le développeur s'intégrera dans une équipe produit auto-gérée, qui fonctionne en agilité dans la gestion de sa backlog, avec des rituels Scrum (sprints de 3 semaines). Les pratiques DevOps sont privilégiées, l'équipe assure le BUILD et le RUN du produit (support de dernier niveau). Missions du développeur Développer les nouvelles features qui enrichiront le produit Intégrer son code dans la CI Tester unitairement ses développements (manuels, automatisés) Déployer ses développements dans les différents environnements d'intégration, de qualification, et de production Participer au maintien et à la mise en place des outils aidant à la production au sein du centre de développement Participer à la mise en place / à jour et à l'amélioration des outils et process de production du CDD
Freelance

Mission freelance
Consultant DataViz & Support BI

ESENCA
Publiée le
DAX
Google Cloud Platform (GCP)
Looker Studio

3 ans
Lille, Hauts-de-France
Objectif de la mission Accompagner les utilisateurs dans l’exploitation et l’optimisation des outils de Data Visualization, en assurant un support de qualité, l’amélioration des performances et la diffusion des bonnes pratiques. Environnement & contexte Vous intervenez au sein d’une équipe transverse dédiée au support et à l’accompagnement des utilisateurs sur les solutions Data & BI. Votre rôle consiste à traiter les sollicitations (incidents, demandes, conseils) tout en contribuant à l’amélioration continue des outils et des usages. La mission s’articule en deux phases : Phase d’immersion : montée en compétences sur l’écosystème DataViz et les outils en place Phase opérationnelle : contribution active au support utilisateurs et à l’optimisation des plateformes Missions principales 1. Audit & optimisation des performances (Power BI) Analyser les rapports à forte consommation de ressources Identifier les goulots d’étranglement (modèles, requêtes, DAX) Proposer et mettre en œuvre des optimisations techniques Suivre les performances et alimenter les indicateurs de pilotage 2. Support utilisateurs & accompagnement Prendre en charge les incidents et demandes (création, accès, paramétrage) Accompagner les utilisateurs dans la prise en main des outils Améliorer l’expérience utilisateur et la qualité de service Rédiger et maintenir la documentation et les guides 3. Amélioration continue Identifier les demandes récurrentes et proposer des automatisations Contribuer à l’évolution des pratiques DataViz Participer à la structuration du support et à la qualité globale du service Compétences techniques Obligatoires : Power BI (niveau expert) Maîtrise avancée du DAX Analyse de performance (DAX Studio, Server Timings, Query Plan) Importantes : DAX Studio (analyse VertiPaq, optimisation des modèles) Souhaitables : Looker Studio Environnement GCP (notions) Connaissance des outils BI (type SAP BO) Atouts complémentaires : LookML, API, GitHub, Terraform Compréhension des architectures Data modernes Environnement technique Power BI (certification PL-300 appréciée) DAX Studio (VertiPaq Analyzer, Server Timings…) Analyse Storage Engine vs Formula Engine Outils de Data Visualization et de reporting
Freelance
CDI

Offre d'emploi
Architecte Cloud & Cloud de Confiance

KLETA
Publiée le
AWS Cloud
Azure
GitLab CI

3 ans
Paris, France
Dans le cadre de la structuration et de l’industrialisation d’un socle Cloud multi-fournisseurs, vous intervenez en tant qu’Architecte Cloud au sein d’un dispositif de type Cloud Center of Excellence. Votre rôle consiste à piloter et garantir la cohérence des architectures Cloud Public et Cloud de Confiance, en lien étroit avec les équipes plateforme, sécurité, data et DevOps. Vous contribuez à la définition des standards, des bonnes pratiques et des trajectoires techniques sur des environnements multi-cloud (AWS, Azure, GCP), avec des enjeux forts autour de la scalabilité, de la sécurité, de la performance et de l’optimisation des coûts. Vous intervenez également sur l’industrialisation des plateformes, la mise en place de modèles d’architecture et l’amélioration continue des services proposés aux équipes projets. Vous êtes force de proposition pour améliorer la maturité Cloud, challenger les choix techniques et accompagner les équipes dans l’adoption des bonnes pratiques. Enfin, vous contribuez à des sujets transverses tels que le FinOps, l’observabilité, la gouvernance Cloud et le pilotage par la donnée, dans un environnement Agile à l’échelle.
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance

Mission freelance
Ingénieur Cloud Junior (AWs/GCP/DevOps)

CONCRETIO SERVICES
Publiée le
Apache Kafka
AWS Cloud
DevOps

6 mois
450-500 €
Nanterre, Île-de-France
MISSIONS PRINCIPALES Supervision & Disponibilité Production Assurer le monitoring 24/7 des systèmes de production via Grafana, Prometheus, Datadog et Stackdriver — détection proactive des anomalies avant impact utilisateur Créer et maintenir les dashboards et les alertes, corréler les événements pour le diagnostic d'incidents Participer à l'astreinte on-call (PagerDuty) sur les systèmes critiques Gestion des Incidents Prendre en charge les incidents de production, mener le troubleshooting et produire les RCA (Root Cause Analysis) Définir et mettre en œuvre les actions correctives et préventives pour éviter la récurrence Communiquer de façon claire avec les équipes et le management en situation de crise Automatisation & Infrastructure as Code Écrire et maintenir les configurations Terraform en production (modules, state management, workspaces) Automatiser les opérations répétitives via Python et Bash — déploiements, inventaire, vérification, reporting Gérer la configuration via Ansible et maintenir les pipelines GitLab CI Exploitation des Environnements Conteneurisés & Plateformes Opérer Kubernetes en production : déploiements, services, scaling HPA, troubleshooting pods/nodes, gestion des namespaces et RBAC Opérer Kafka en production : monitoring du lag consumer, gestion des topics et partitions, diagnostic des incidents de streaming Assurer le support opérationnel sur les bases de données : PostgreSQL, Elasticsearch, Couchbase (performances, sauvegardes, restaurations) Réseau & Sécurité Cloud Gérer les VPN, NAT, routage IP, proxy et load balancing en environnement cloud AWS et GCP Appliquer les bonnes pratiques de sécurité et de gestion des accès (IAM, VPC)
Freelance

Mission freelance
Data Engineer GCP - Anglais niveau C1

ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform

18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Freelance
CDI

Offre d'emploi
Ingénieur production cloud

REACTIS
Publiée le
AWS Cloud
Cloud
DevOps

6 mois
30k-40k €
300-420 €
Suresnes, Île-de-France
Rôle Un Operations Cloud Expert est responsable de la stabilité, de la fiabilité et de la performance des systèmes en production, tout en s’appuyant sur des pratiques DevOps pour automatiser, industrialiser et améliorer l’efficacité opérationnelle. Environnement technique Cloud : Google Cloud Platform (GCP), Amazon Web Services (AWS) Scripting : Shell, Python Outils : Git, GitLab CI, Ansible, Terraform Conteneurs & orchestration : Docker, Kubernetes Plateformes & streaming : App Engine, Kafka Bases de données : SQL (PostgreSQL), NoSQL (Elasticsearch, Couchbase) Monitoring & observabilité : Grafana, Stackdriver, Mesos, PagerDuty, Prometheus, Datadog Réseau : VPN, routage IP, NAT, proxy Méthodologie : Agile Responsabilités principales Superviser et maintenir la disponibilité des systèmes et infrastructures de production Gérer les incidents, le troubleshooting et les analyses de causes racines Garantir la disponibilité, la performance et la fiabilité selon les objectifs SLA/SLO Automatiser les tâches opérationnelles via du scripting et de l’Infrastructure as Code (IaC) Gérer et améliorer les pipelines CI/CD (GitLab CI) Déployer et supporter des applications dans des environnements cloud (AWS / GCP) Réaliser des mises à jour d’infrastructure via des outils IaC comme Terraform Travailler avec des environnements conteneurisés (Docker, Kubernetes) Collaborer avec les équipes de développement pour améliorer la déployabilité et l’exploitabilité Appliquer les bonnes pratiques de sécurité, de sauvegarde et de reprise après sinistre Compétences requises Solide expérience en exploitation de systèmes de production Expérience confirmée en monitoring et gestion des incidents Compétences en scripting (Bash, Python) Expérience sur des plateformes cloud (GCP ou AWS) Bonne maîtrise des pratiques CI/CD et d’automatisation Expérience avec les systèmes de gestion de versions (Git / GitFlow) Bonne connaissance des architectures conteneurisées et microservices (Kubernetes) Connaissance des bases de données SQL (PostgreSQL) et NoSQL (Elasticsearch, Couchbase) Compréhension des concepts réseau (VPN, routage IP, NAT, load balancing, proxy) Expérience dans un environnement Agile / SAFe Anglais technique courant (lu, écrit, parlé)
Freelance
CDI

Offre d'emploi
Software Engineer GCP (H/F)

WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)

6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Freelance
CDI

Offre d'emploi
Ing Devops - DigitalBackbone

RIDCHA DATA
Publiée le
CI/CD
DevOps
Google Cloud Platform (GCP)

1 an
Île-de-France, France
RIDCHA DATA est à la recherche d’un DevOps Engineer GCP – Confirmé pour accompagner son client acteur majeur dans le secteur industrie. 1- Descriptif du poste Au sein de l’équipe produit Digital Backbone, l’Ingénieur DevOps qui contribuera au design, construction et aux opérations de la platforme. Le projet se situe aussi dans le cadre de l’ouverture de l’entreprise vers le cloud et la recherche des solutions pour l’échange des données entre les applications en interne et les applications dans le cloud tout en garantissant leur sécurité. Expertises recherchées : • Mise en place des services cloud public (GCP) intranet et usines • Mise en place d’une automatisation de ces services via Ansible et Terraform • Mise en place d’une chaine de CI/CD pour le déploiement de ces services d’un environnement de développement jusqu’à l’environnement de production • Toute mise en place de service s’accompagne d’un monitoring • Gérer un environnement Docker • Gérer sur ces environnements l’aspect sécurité et finops (gestion des couts) • Support L3 sur la plateforme • Support au RUN sur la plateforme. 2- Livrables • Livrable de la platforme Cloud GCP, Intranet et usines. • Documentation technique • Mise en place des dashbord monitorant les services déployés • Site Reliability engineering • Coaching des équipes projets au travers des supports et standard • Support du dev au RUN vis-à-vis des projets livrés.
Freelance

Mission freelance
Devops

ESENCA
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes

1 an
Lille, Hauts-de-France
DevOps Engineer confirmé (H/F) – Région lilloise Localisation : Métropole lilloise (présence requise) Disponibilité : ASAP Contexte : Environnement international – Production critique avec astreintes Contexte & objectif Dans un environnement international exigeant, vous intervenez au sein d’une équipe Ops transverse afin d’accompagner les équipes produit dans la gestion des opérations, le maintien en condition opérationnelle et l’industrialisation de leurs applications. L’objectif principal est d’apporter une expertise DevOps solide pour garantir la fiabilité, la performance et la scalabilité des plateformes en production. Missions principales Diffuser les bonnes pratiques Ops auprès des équipes de développement Déployer et configurer les infrastructures (hors production et production) Mettre en place et maintenir des pipelines CI/CD Accompagner les équipes sur les sujets d’observabilité (monitoring, alerting, SLI/SLO) Participer à la gestion des incidents (analyses, post-mortems, plans d’actions) Proposer des améliorations en termes de performance, sécurité et fiabilité Contribuer à une démarche FinOps (optimisation des coûts, suivi des consommations) Participer au Run transverse (gestion de tickets, support aux équipes métiers) Automatiser les tâches récurrentes Participer aux astreintes (rotation avec l’équipe) Environnement technique Cloud & Infrastructure : Google Cloud Platform (GCP) (++ impératif) Kubernetes / GKE (++ impératif) Terraform (++ impératif) Docker (++) CI/CD & DevOps : GitHub / GitHub Actions (++) Vault (++) JFrog (++) Jira (+) Monitoring & Observabilité : Datadog (++) PagerDuty (+) Langages & Scripting : Python (++) Bash (++) Systèmes : Linux (RedHat, CentOS) (++) Bases de données : PostgreSQL (++) MongoDB (++) MySQL (++) ITSM : ServiceNow (+)
CDD
CDI
Freelance

Offre d'emploi
Directeur de Programme

R&S TELECOM
Publiée le
AWS Cloud
Azure
FinOps

6 mois
Nanterre, Île-de-France
Contexte de la mission : Au sein d’une équipe de 30 personnes, le consultant assurera la gestion contractuelle et opérationnelle de projets complexes Cloud, en garantissant leur conformité, leur respect des délais et la satisfaction client. Tâches à réaliser : Participation à l'Instruction des Dossiers en Avant-Vente : analyse des besoins du client, anticipation des risques, proposition des solutions adaptées, en collaboration avec les équipes commerciales et techniques. Pilotage de la réalisation des prestations et gestion contractuelle : Pilotage de l’exécution du projet en veillant au respect des engagements contractuels, des délais et des budgets. Coordination des équipes, validation des livrables, ajustement de la stratégie si nécessaire. Gestion contractuelle en veillant à la conformité des clauses, à la gestion des modifications, et à la bonne application des accords. Gestion des risques majeurs, négociation avec les partenaires, adaptation des contrats Communication proactive avec le client pour assurer la conformité et la satisfaction. Management, Relation Client et Contract Management : Développement de relations stratégiques, identification d’opportunités de croissance, gestion des escalades. Coordination et mobilisation des équipes opérationnelles, participation à la stratégie commerciale. Gestion de la conformité contractuelle tout au long du projet, en veillant à l’application rigoureuse des clauses et à la gestion des modifications ou avenants nécessaires. Pilotage financier Gestion financière avancée en élaborant des forecasts précis, en suivant la facturation, en optimisant le cash-flow. Analyse de la rentabilité des projets, anticipation des risques financiers, et négociation avec les parties prenantes. Mise en place d’actions correctives si nécessaire pour respecter les objectifs financiers fixés. Compétences recherchées : Obligatoires : Gestion de projets complexes Cloud, avec une forte maîtrise des risques, du budget et de la relation client. Compétences commerciales solides - Autonomie, rigueur, organisation, qualités relationnelles Compétences techniques Cloud (Niveau pilotage / pas ingénierie) · Cloud Public (AWS, GCP, Azure): Compréhension des services IaaS / PaaS / Stockage / Réseau, Notions de FinOps (analyse coûts, optimisation, anomalies), Lecture d'Architecture Cloud · Cloud Privé : Compréhension des ressources (instances, volumes, réseaux, ...), notions de capacités, quota, sclabilité, Compréhension des périmètres d'infogérance Cloud · Services Managés et Infogérance : Supervision, patching, sauvegarde, PRA/PCA · Notions de Sécurité Cloud (segmentation, durcissement, ..) Expérience nécessaire : 7 ans minimum sur la fonction Langues : Français, Maîtrise de l’anglais opérationnelle à l’écrit comme à l’oral : niveau B1 Date de démarrage : 01/06/2026 Localisation : Locaux situés à Nanterre Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : OUI, 1 à 2 fois par an environ Déplacements sur d'autres site client en France : NON Autre matériel requis : OUI ligne mobile avec téléphone mobile
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
CDD
CDI

Offre d'emploi
Bordeaux : DEVOPS GCP

OCTOGONE
Publiée le
DevOps
Google Cloud Platform (GCP)

3 mois
40k-70k €
Bordeaux, Nouvelle-Aquitaine
Référent DevOps dans une équipe en charge du développement et de la maintenance d’une application de gestion d’un référentiel de donnée avec notamment les activités suivantes qui pourront vous être confiées : • Développer et maintenir les scripts Terraform des environnements des applications • Référent configuration de la plate-forme GCP du projet • Apporter un support technique • Rédaction de la documentation technique et opérationnelle Description Vous interviendrez en tant que Référent DevOps dans une équipe en charge du développement et de la maintenance d’une application de gestion d’un référentiel de donnée avec notamment les activités suivantes qui pourront vous être confiées : • Développer et maintenir les scripts Terraform des environnements des applications : o A partir des besoins et contraintes techniques, créer ou faire évoluer les scripts Terraform de provisionning des environnements o Tester et déployer les scripts sur les différents environnements o La plate-forme cible est Google Cloud Platform o Les applications sont exécutées dans des containers sur GKE ou Cloud Run o Les bases de données sont des PostgreSQL managées sur Cloud SQL o L’ensemble de la configuration de tous les services GCP utilisés par les applications doit être déployé par les scripts IAC o Se conformer aux contraintes clientes selon le besoin (réseau, équilibreur de charge, gestion de fichiers, …) o Gérer et versionner les scripts de l’environnement de développement jusqu’à la production. • Référent configuration de la plate-forme GCP du projet : o Être l’interlocuteur privilégié sur tous les aspects en lien avec la direction projet client, les équipes de développements, et les équipes d’architectes Infra Cloud du Client o Notamment pour expliquer et faire valider les besoins de changements, par les équipes d’architectes Infra Cloud du Client. o Être le garant du respect des normes émises par les équipes d’architectes Infra Cloud et Sécurité du Client o Echanges avec les équipes projets pour prendre en compte les besoins de changements, qu’ils soient « simples » (ajout d’un secret, gestion d’un log, …) ou complexes (utilisation d’un nouveau composant GCP comme CloudRun, création d’un environnement complet) • Apporter un support technique : o Analyser et résoudre les problèmes remontés par les équipes projet ou support o Être l’interlocuteur privilégié des équipes d’exploitation de la solution o Analyser les indicateurs et les traces produits par les différents composants sur les plateformes GCP et proposer des améliorations (performances, coût, …) par rapport à l’existant ou l’évolution des besoins (CPU, RAM, Nb utilisateurs, …) • Rédaction de la documentation technique et opérationnelle : o Rédiger et maintenir les documents d’architecture o Produire les documents d’exploitation nécessaire à l’ops, à la supervision et au maintien en conditions opérationnelles o Elaborer et mettre à jour toutes les procédures, guides techniques et documentation associées aux environnements GCP et aux pipelines CI/CD. o Veiller à la clarté, la cohérence et à la mise à jour continue de l’ensemble de la documentation projet.
Freelance

Mission freelance
Senior platform engineer

KUBE Partners S.L. / Pixie Services
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
350-500 €
Lille, Hauts-de-France
Contexte de la mission Notre but est de créer un écosystème ouvert afin de connecter de nombreux acteur.trices et services tiers, de manière sûre et performante. Nous sommes acteurs de la French Tech avec des valeurs fortes et un collectif engagé . Notre mission : rendre durablement le plaisir et les bienfaits de la pratique du sport accessible au plus grand nombre. Objectifs et livrables Les équipes Cloud Platform Engineering En tant que futur Digital Giant, nous avons besoin de construire des fondations solides pour ses services. La Cloud Platform Engineering (CPE), initiative collaborative lancée en 2020, a pour but de répondre à cela. La CPE est transverse à l’ensemble des domaines et pays. Elle est constituée d’équipes centrées sur l’Expérience du Développeur, la mise à disposition de solutions techniques pour accélérer le développement et la stabilité/scalabilité de nos applications, les Réseaux, l’Observabilité, le FinOps. Ses objectifs principaux sont de rationaliser le catalogue de produits techniques référencés au sein du groupe ET de fournir des services “clé en main” pour les équipes applicatives, qui pourront ainsi se concentrer sur le développement de features à valeur ajoutée. L’équipe 3S Stack que vous intégrerez s’occupe de conseiller les équipes applicatives sur le design de leur application, mettre à disposition des solutions d’infrastructure, et proposer une stack technique qui embarque tous les pré-requis Sécurité, Réseaux, Monitoring, etc... de Decathlon et laisse l’autonomie aux développeurs sur le reste (via un catalogue prédéfini et automatisé). Tous nos hébergements sont déjà sur le Cloud. Le but à présent est de s’assurer que nous utilisons pleinement les capacités des Cloud Providers (#cloudnative). Nous cherchons un profil pour renforcer l'équipe existante et de leader l'implémentation de vault dans la 3S Le périmètre technique de votre équipe : Cloud Service Providers : GCP Infra-as-Code : Terraform / Python Managed Databases : Aiven (avec Kafka, PGSQL, ElasticSearch) Orchestration de conteneurs : Kubernetes Observabilité : Dynatrace Gestion de code : Github CI/CD : GithubActions, FluxCD Serverless : CloudRun, CloudFunction, Lambda
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
CDI
Freelance

Offre d'emploi
Architecte Technique Sénior (Core Infra)

Clostera
Publiée le
Ansible
Azure
Elasticsearch

1 an
58k-80k €
570-680 €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Au sein de la direction Core Infrastructure de notre client, vous intervenez sur la conception et l’évolution des services d’infrastructure critiques (observabilité, supervision, API Management, gestion des identités). Ce que vous ferez : Définir et piloter les architectures techniques Accompagner les équipes sur les choix techniques structurants Concevoir des solutions scalables, robustes et optimisées en coûts Mettre en place les processus de gouvernance (RACI, RBAC) Piloter les chantiers techniques (delivery & priorisation) Participer à la roadmap produit (vision observabilité) Assurer la qualité, la documentation et la transmission des connaissances

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

372 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous