Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 371 résultats.
Freelance

Mission freelance
Ingénieur DevOps GCP/GKE

CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

12 mois
400-510 €
Paris, France
Vous interviendrez dans le cadre de la mise en production et industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Construire les scripts terraform de provisionning des ressources GCP Construire ou supporter les équipes de développement sur les pipelines Gitlab CI ou scripts de configurations GITOPS Construire les pipelines de synchronisations d’artifacts entre le repo source & GCP Supporter les équipes projets sur les problématiques techniques & de performances Administrer et optimiser les configurations NGINX pour le relais des flux depuis le réseau Corporate Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement et de rollback
Freelance

Mission freelance
Ingénierie en sécurité Opérationnelle

Sapiens Group
Publiée le
Google Cloud Platform (GCP)
IAM

1 an
Paris, France
Contexte et détails de la mission Objectif global : Accompagner la sécurisation du Cloud public réglé. Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maîtrise de l'IAM et de l'automatisation, de Terraform et des chaînes CI/CD. Compétences techniques requises IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Développement Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Anglais Professionnel - Impératif Description détaillée Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes aux règles de sécurité, incluant la gestion des identités, des accès et des permissions. Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. Mise en œuvre des meilleures pratiques et contrôles au travers d'outils tels que AWS SCP, GCP Deny Policy et autres. Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. Documenter les processus, les configurations et politiques mises en place. Profil recherché Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
CDI

Offre d'emploi
Cloud Engineer Azure / GCP

Everwise
Publiée le
Azure
DevSecOps
Github

2 ans
40k-55k €
400-550 €
Île-de-France, France
Fiche de poste – Cloud Engineer Azure / GCP (Freelance / Mission) Contexte Dans le cadre du renforcement des équipes Cloud, nous recherchons des profils Cloud Engineer spécialisés sur les environnements Azure et/ou GCP , avec une forte orientation DevOps et sécurité. Le marché étant concurrentiel sur ce type de profils, nous recherchons des consultants efficaces, rapidement opérationnels et capables de s’intégrer dans des environnements exigeants. Missions principales Concevoir, déployer et maintenir des infrastructures Cloud (Azure / GCP) Automatiser les déploiements via des outils DevOps (CI/CD) Développer des scripts et outils en Python Gérer le versioning et la collaboration via GitHub Mettre en place et maintenir des pratiques de sécurité (DevSecOps) Utiliser des outils de sécurité type Snyk et Checkmarx Participer à l’optimisation des performances et des coûts Collaborer avec les équipes techniques (Dev, Ops, Sec) Compétences requises Techniques Cloud : Microsoft Azure et/ou Google Cloud Platform (GCP) DevOps : CI/CD, GitHub Langages : Python Sécurité : Outils : Snyk, Checkmarx Bonnes pratiques DevSecOps Infrastructure as Code (Terraform apprécié) Fonctionnelles Bonne autonomie Capacité à travailler dans des environnements agiles Esprit d’analyse et de résolution de problèmes Profil recherché Expérience : 5 à 7 ans minimum en environnement Cloud Profil opérationnel, capable de délivrer rapidement Bonne communication avec les équipes techniques
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Freelance

Mission freelance
INGENIEUR DevOps IA H/F

HAYS France
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

8 mois
400-550 €
Yvelines, France
Missions Le pôle conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. Le poste s'inscrit au sein de l'équipe GenAI du domaine d’expertise Data & IA, avec pour mission de concevoir des offres IA à l'échelle dans des environnements Cloud public ou privé. PÉRIMÈTRE D'INTERVENTION Le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Le candidat évoluera dans un environnement technique complexe, distribué, sécurisé et hautement disponible, au sein d'une équipe dédiée aux produits et services d'intelligence artificielle.
Freelance
CDD

Offre d'emploi
Senior Smart Automation Developer (Dataiku / Agentic AI) H/F

SMARTPOINT
Publiée le
AWS Cloud
Azure
Dataiku

12 mois
60k-70k €
600-700 €
Île-de-France, France
Dans le cadre d'un projet de développement des capacités en Smart Automation & Agentic AI , notre client renforce son équipe avec un Senior Smart Automation Developer . Son ambition : concevoir des automatisations intelligentes capables d’orchestrer les données, les systèmes applicatifs et les agents IA , afin d’optimiser et transformer les processus métiers. Vous interviendrez sur des projets innovants basés sur la plateforme Dataiku et ses capacités LLM Mesh , au cœur des enjeux d’IA générative et d’automatisation avancée.
Freelance

Mission freelance
Solution Architecte Power BI / Microsoft Fabric - Administration & Architecture

CHOURAK CONSULTING
Publiée le
CI/CD
Confluence
DAX

3 mois
400-700 €
Paris, France
Nous recherchons un Solution Architecte Power BI / Microsoft Fabric avec une expertise avancée en administration Microsoft Fabric , pour intervenir sur des sujets stratégiques de gouvernance, architecture et performance. ⚠️ Il ne s’agit pas d’un poste de Data Analyst Power BI. Nous recherchons un référent technique capable d’administrer les capacités Fabric et de conseiller sur l’architecture globale . 🎯 Contexte de la mission Vous serez le point d’entrée technique sur l’ensemble des sujets Power BI / Fabric , avec une forte responsabilité sur : L’administration des capacités Fabric L’optimisation des performances La gouvernance et la sécurité Les bonnes pratiques d’architecture BI ⚙️ Missions principales Administrer et monitorer les capacités Microsoft Fabric (analyse de consommation, optimisation, gouvernance). Définir et mettre en œuvre les standards d’architecture Power BI. Superviser la modélisation des datasets (modèle en étoile, optimisation). Garantir la sécurité des données : RLS, OLS, gestion des accès . Mettre en place et améliorer les pratiques CI/CD Power BI . Accompagner les équipes BI et Data sur les bonnes pratiques. Challenger les choix d’architecture et assurer la cohérence globale.
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Freelance

Mission freelance
Ingénieur d'études IT

WINSIDE Technology
Publiée le
Agent IA
Google Cloud Platform (GCP)
Supply Chain

1 an
390-550 €
Lille, Hauts-de-France
"Nous recherchons un Application Analyst / Ingénieur d'étude IT Senior (8 ans+ exp.) pour rejoindre un environnement international et innovant. Votre rôle : - Appréhender les processus métiers complexes et designer des solutions IT robustes (Cloud Native) et lien avec éditeur. - Intervenir sur l'ensemble du cycle de vie des applications (Cadrage, Build et suivi du Run). - Piloter et optimiser nos flux d'intégration (maîtrise des échanges de données indispensable). - Documenter, structurer et faire vivre les référentiels de processus."
Freelance

Mission freelance
DevOps GCP - Rennes

Intuition IT Solutions Ltd.
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
400 €
Rennes, Bretagne
1. Contexte du besoin Le client recherche un Consultant DevOps pour rejoindre une équipe existante de 3 DevOps . Cette équipe intervient sur la ligne de produits “Gestion Commerciale en magasin” , solution de back‑office utilisée quotidiennement par plus de 1400 magasins pour la gestion des produits, prix, stocks, commandes, inventaires, balances, traçabilité et étiquettes électroniques..pdf) La mission implique des interventions sur deux environnements : Serveurs Windows en magasins Solutions Cloud, idéalement GCP (Google Cloud Platform) 2. Profil recherché Type : Consultant DevOps Séniorité : 5 ans minimum Capacité attendue : Forte autonomie + esprit collectif
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Freelance

Mission freelance
Cloud engineering Landing Zone SMTP Expérimenté (450€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)
SMTP (Simple Mail Transfer Protocol)

1 an
360-450 €
Île-de-France, France
● Concevoir une architecture SMTP Postfix intégrée à Google Workspace (relais HA, split/dual delivery). ● Configurer le flux, le filtrage et le routage (restrictions smtpd, header/body checks, queues, transport_maps). ● Sécuriser et authentifier la messagerie (SPF, DKIM/OpenDKIM, DMARC, ARC). ● Chiffrer les échanges SMTP (TLS opportuniste/forcé, certificats, DANE/TLSA). ● Industrialiser le déploiement en IaC/GitOps (Terraform, Ansible/SaltStack, CI/CD DNS TXT/MX). ● Piloter la délivrabilité et la réputation (bounces, RBL, rate-limiting). ● Observer et diagnostiquer (centralisation logs Loki, dashboards, postscreen). ● Mettre en place le content filtering et la conformité (ex. Mimecast, POLP, SASL). ● Documenter et standardiser (runbooks, remédiation, traçabilité des changements).
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
Freelance

Mission freelance
Lead QA

ESENCA
Publiée le
API
Cypress
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Objectif global Animer et piloter l’équipe qualité en définissant la stratégie de tests et en garantissant l’excellence opérationnelle des solutions digitales. Contexte Environnement digital à fort enjeu autour de la performance financière et de la fiabilité des données. Les systèmes concernés (comptabilité, paiements, reporting) sont critiques et nécessitent un haut niveau d’exigence en matière de qualité. Contraintes du projet Certification ou connaissance ISTQB requise Contexte international Forte exigence de fiabilité et de précision Livrables (Non spécifiés – mission orientée pilotage, stratégie et exécution qualité) Compétences techniques Cypress, Playwright ou Selenium – Confirmé – Impératif Tests d’API (Postman / Newman, Bruno) – Confirmé – Impératif Connaissances linguistiques Anglais professionnel – Impératif Description de la mission Le Lead Qualité intervient sur une plateforme digitale stratégique afin de définir la vision qualité et piloter l’ensemble des activités de tests, sur des solutions développées en interne ou intégrées. Missions principales1. Stratégie et gouvernance Définir et porter la stratégie globale de tests adaptée à la criticité des produits Mettre en place et suivre les KPI qualité (couverture, anomalies en production, MTTR) Promouvoir une approche Shift Left en intégrant la qualité dès la conception 2. Expertise QA – Développement interne (MAKE) Définir et déployer les stratégies de tests automatisés (unitaires, intégration, E2E) Industrialiser les tests dans les pipelines CI/CD (GitLab) Piloter les tests non fonctionnels : performance, charge, sécurité 3. Pilotage qualité – Solutions intégrées (BUY) Garantir la fiabilité des flux de données entre systèmes Coordonner les phases de recette métier (UAT) Assurer la non-régression lors des évolutions et montées de version
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

371 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous