Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 422 résultats.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer – GenAI / RAG – GCP

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Large Language Model (LLM)

12 mois
38k-60k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet autour de l’industrialisation de solutions d’intelligence artificielle, nous recherchons un Machine Learning Engineer capable de concevoir et déployer des solutions basées sur des LLM et architectures RAG dans un environnement Google Cloud Platform . Le consultant interviendra sur la conception, le développement et la mise en production de solutions d’IA intégrées dans des applications métiers. Missions : Conception et développement de solutions basées sur LLM et RAG Développement et optimisation de modèles de Machine Learning Mise en place de pipelines MLOps Mise en production de modèles ML et GenAI Déploiement de services ML dans un environnement GCP Développement d’API d’inférence et intégration dans des applications métiers Collaboration avec les équipes data, cloud et engineering Compétences techniques Machine Learning / GenAI Python TensorFlow / PyTorch ou équivalent LLM RAG LangChain ou frameworks similaires Cloud & Infrastructure Google Cloud Platform Vertex AI BigQuery Cloud Run ou GKE MLOps Docker Kubernetes CI/CD
Freelance

Mission freelance
AI Engineer GCP

Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
MCP
Python

1 an
550-600 €
Île-de-France, France
Nous sommes à la recherche d'un AI Engineer GCP pour rejoindre une équipe backend experte, votre mission : développer de nouvelles features, optimiser l’existant... L'expertise en software development, notamment backend (Python) et connaissance de GCP (expérience concrète) est primordial pour cette mission. 🎯 Vos missions clés ✅ Développer et améliorer le backend des agents IA (création, nouvelles features). ✅ Optimiser l’infrastructure GCP (Cloud Run, Terraform). ✅ Collaborer avec une équipe passionnée de code et d’IA (MCP, LLM). ✅ Scalabiliser un produit SaaS à forte audience.
Freelance

Mission freelance
Architecte Sécurité Azure/GCP

Groupe Aptenia
Publiée le
Architecture
Azure
Cybersécurité

3 ans
Paris, France
Mission d’ Architecte Sécurité Cloud au sein d’un grand groupe international du secteur des services. Le rôle consiste à définir et mettre en œuvre la stratégie de sécurité cloud sur des environnements principalement Microsoft Azure , avec une exposition complémentaire à GCP . L’architecte intervient sur la sécurisation des architectures, la gouvernance, les bonnes pratiques et la conformité , en collaboration avec les équipes cloud et sécurité. Il participe également à la définition des standards, des contrôles de sécurité et des modèles d’architecture sécurisés pour les plateformes cloud du groupe.
Freelance

Mission freelance
Administrateur systèmes Linux H/F

HAYS France
Publiée le
Administration linux
DevOps
Google Cloud Platform (GCP)

6 mois
340-550 €
Nantes, Pays de la Loire
Notre client recherche un Administrateur Systèmes & Réseaux passionné par les infrastructures, réseaux, cloud et DevOps. Missions : administrer et sécuriser systèmes Linux/Windows ; gérer réseau interne (switches, routeurs, VPN, firewall, VLAN) ; implémenter DevOps (CI/CD GitLab/Jenkins, IaC Terraform/Ansible/Puppet, conteneurisation Docker/Kubernetes) ; déployer cloud (AWS/Azure/GCP) ; superviser (Prometheus/Grafana/Zabbix/ELK) ; diagnostiquer incidents ; évoluer architecture ; assurer sécurité/RGPD/ISO ; documenter. Poste technique varié.
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance
CDI

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
CDI
Freelance

Offre d'emploi
Data Engineer confirmé

ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL

1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Freelance

Mission freelance
Data Engineer (H/F)

HAYS France
Publiée le
Architecture
AWS Cloud
Azure

6 mois
450-600 €
Monaco
Le poste consiste à concevoir et construire une plateforme data complète , utilisée pour : Collecter en temps réel les données des machines à sous Stocker et structurer ces données (ODS / DWH) Générer des statistiques réglementaires pour les autorités Analyser le chiffre d’affaires et les performances des machines et jeux Alimenter les outils anti‑fraude et AML Mettre en place une gouvernance data solide Architecture & Conception Data Engineering – Implémentation Structuration & bonnes pratiques Collaboration avec les équipes internes
Freelance

Mission freelance
Expert Commvault (H/F)

SPIE ICS
Publiée le
Commvault
Google Cloud Platform (GCP)
Stockage

1 an
400-500 €
Noisy-le-Grand, Île-de-France
Nous recherchons pour notre client un Expert Commvault (H/F) afin d’optimiser, automatiser et renforcer la cyber résilience de son infrastructure de sauvegarde. Missions Assurer la gestion et l’administration de Commvault Maîtriser les technologies de stockage Quantum SMB-CIFS, NFS, S3 Réaliser des audits, hardening et mise en œuvre de la cyber résilience Intégrer Commvault avec Google Cloud Platform (GCP) Gérer les topologies réseau et réseaux de backup Maîtriser les solutions AHV (Acropolis Hypervisor) et Intellisnap Gérer les fonctionnalités Autorecovery et Threat Scan Administrer les backups Oracle ZDLRA et RAC intégrés à Commvault Concevoir et gérer les workflows Commvault, automatiser les processus Intégrer les solutions d’authentification et sécurité via Okta
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Freelance

Mission freelance
Développeur Front-end Senior - React & Next.js

CAT-AMANIA
Publiée le
Docker
Google Cloud Platform (GCP)
Javascript

1 an
100-500 €
Lille, Hauts-de-France
Une nouvelle plateforme est le pilier de notre stratégie de contenu et d'expérience. Nous souhaitons exploiter un CMS Headless pour alimenter nos interfaces, ce qui nous permet d'innover rapidement et de proposer des expériences riches et flexibles à nos utilisateurs. Objectifs et livrables En tant que Développeur Front-end Expert, vous serez référent technique sur l'ensemble de la stack Front-end. Vos missions principales incluront : Conception et développement des composants et des pages de notre nouvelle plateforme en utilisant Next.js et React . Intégration avancée et optimisation des données provenant de Contentstack et d'autres APIs, en assurant la performance (Core Web Vitals) et la maintenabilité du code. Définition et mise en place des meilleures pratiques de développement (qualité de code, tests, documentation, revue de code) au sein de l'équipe. Encadrement technique des développeurs plus juniors et contribution active à l'architecture Front-end (Micro-Frontends, Monorepo si applicable). Garantir l'industrialisation des applications dans un contexte de fort trafic et de haute disponibilité.
Freelance
CDI

Offre d'emploi
DEVOPS SRE/CLOUD GCP

INFOTEL CONSEIL
Publiée le
Gitlab
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

3 ans
50k-61k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons pour une entreprise de renommée française, Un Ingénieur Devops SRE/GCP Cloud H/F en CDI sur Nantes. 3 jours sur site/2 jours en télétravail Dans le cadre d’une migration quasi complète vers Google Cloud Platform (GCP) avec un objectif de sortie progressive de l’environnement virtualisé historique, nous renforçons notre équipe SRI / DevOps. L’infrastructure est pensée cloud native , fortement orientée scalabilité, automatisation et fiabilité. Nous recherchons un consultant expérimenté , immédiatement opérationnel, capable d’apporter de la valeur technique rapidement et de s’inscrire dans une dynamique d’optimisation continue. Missions Concevoir, déployer et optimiser des architectures sur GCP Maintenir et faire évoluer les clusters GKE (scalabilité, sécurité, coûts) Industrialiser l’infrastructure via Terraform / Terragrunt Participer activement à l’amélioration continue de la CI/CD Mettre en place et améliorer les pratiques SRE (SLO, error budgets, post-mortems) Être force de proposition sur l’optimisation des performances et des coûts cloud Accompagner les équipes applicatives dans les bonnes pratiques cloud native Expliquer et défendre les choix techniques auprès des équipes et parties prenantes
Freelance

Mission freelance
Responsable d’Applications Supply Chain

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL

1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Freelance

Mission freelance
Architecte GCP Gouvernance

Groupe Aptenia
Publiée le
Azure
CI/CD
Datadog

3 mois
Paris, France
Mission d’Architecte Cloud orientée GCP au sein d’un acteur majeur de la fintech. L’objectif est de renforcer et structurer une plateforme GCP encore en croissance, tout en l’interconnectant avec une plateforme Azure déjà mature. Le rôle consiste à définir la gouvernance cloud (landing zones, IAM, sécurité, policies), concevoir l’architecture multi-cloud, et accompagner les équipes sur les bonnes pratiques DevOps et platform engineering. Forte expertise GCP requise, bonne connaissance d’Azure et de Terraform appréciée.
Freelance

Mission freelance
Software Engineer (H/F) – Python Backend / GenAI / GCP

HOXTON PARTNERS
Publiée le
API REST
GenAI
Google Cloud Platform (GCP)

12 mois
Paris, France
Dans le cadre du renforcement d’une plateforme applicative innovante orientée IA générative, nous recherchons un Software Engineer disposant d’une expertise poussée en développement backend Python et en intégration de services GenAI au sein d’environnements cloud modernes. La mission s’inscrit dans un contexte de développement et d’industrialisation de la couche applicative IA, avec un fort niveau d’exigence sur la qualité logicielle, la scalabilité, la sécurité, la performance et l’intégration dans une architecture existante orientée microservices. Le consultant interviendra sur la conception, le développement et l’évolution de services backend exposés via API, avec un enjeu important autour de l’intégration de composants IA avancés, de la gestion des problématiques synchrones / asynchrones, ainsi que de l’évolution du socle agentique, notamment dans le cadre d’une migration de LangChain vers un framework Google. Responsabilités Concevoir, développer et faire évoluer des microservices backend en Python Exposer des APIs via FastAPI Développer des services robustes en environnement synchrone et asynchrone Concevoir et maintenir des APIs REST performantes et sécurisées Structurer les modèles de données avec Pydantic v2 Intégrer des services IA / GenAI dans l’architecture applicative existante Participer à la conception et à l’orchestration d’architectures microservices Contribuer à la migration et à la rationalisation du framework agentique (transition depuis LangChain vers un framework Google) Intégrer des LLMs via Vertex AI, OpenAI ou Anthropic Mettre en œuvre les bonnes pratiques de sécurité (authentification, validation, filtrage de contenu) Optimiser les performances (haut débit, faible latence) Participer à l’industrialisation des développements (CI/CD, cloud-native)
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

422 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous