Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 285 résultats.
Freelance
CDI

Offre d'emploi
Consultant sécurité Cloud GCP / Azure

Ewolve
Publiée le
API
AWS Cloud
Azure

2 ans
40k-45k €
400-650 €
Île-de-France, France

Vous interviendrez en tant que Consultant Sécurité Cloud au sein d’un grand groupe bancaire, afin d’accompagner les projets stratégiques autour du Cloud Public, principalement sur Google Cloud Platform (GCP) et dans une moindre mesure Azure . Votre rôle sera d’assurer la sécurité des architectures Cloud, de renforcer la posture de sécurité globale du groupe, et de guider les équipes projets dans l’adoption sécurisée des services Cloud. Vos principales missions : Accompagner la conception d’architectures Cloud sécurisées (GCP, Azure). Coacher les équipes sur les enjeux de sécurité et de gestion des risques dans le Cloud Public. Contribuer à l’enrichissement du catalogue de services Cloud, en veillant au respect des standards de sécurité du groupe. Définir et mettre en place des contrôles de sécurité pour améliorer la posture de sécurité globale. Assurer la validation sécurité des architectures techniques (DAT, modèles 3 tiers, etc.). Participer aux analyses de sécurité et à la définition des exigences de sécurité. Intervenir sur la sécurité applicative (IAM, authentification, gestion des accès). Sécuriser les API (API Gateway, architectures API). Protéger et chiffrer les données sensibles. Analyser et sécuriser les services PaaS/SaaS des différents Cloud Providers (AWS, Azure, GCP). Rédiger des rapports d’analyse, des guides et standards de sécurité. Suivre les évolutions technologiques (IA Générative, LLM, containers, etc.).

Freelance
CDI

Offre d'emploi
Devops Senior KAFKA (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 ans
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Freelance
CDI

Offre d'emploi
Data Engineer

Proxiad
Publiée le
Azure DevOps
BigQuery
Google Cloud Platform (GCP)

3 ans
Île-de-France, France

Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Freelance

Mission freelance
Développeur full stack JS (H/F)

Insitoo Freelances
Publiée le
Angular
Google Cloud Platform (GCP)
NestJS

2 ans
100-400 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack JS (H/F) à Lille, France. Contexte : Les missions attendues par le Développeur full stack JS (H/F) : Dans une structure de 6 développeurs, il sera garant de ses développements et sera moteur dans la mise en place de bonnes pratiques dans les nouvelles technologies. Actions attendues : -Maintien en condition opérationnel des 3 applications des métiers de la compliance et de l'expansion -Développement d’évolutions fonctionnelles -Documentation technique et échange avec les autres développeurs. Quelques éléments techniques à maîtriser : Angular, VueJs, Nodejs, Nestjs MongoDB, PostgreSQL GCP CI/CD, github action Kafka

Freelance

Mission freelance
Développeur Python

ESENCA
Publiée le
Azure
Datadog
Google Cloud Platform (GCP)

1 an
400-430 €
Lille, Hauts-de-France

Notre futur.e Software Engineer interviendra au sein de l’équipe Network Content Delivery, composée de Tech Lead, Engineering Manager, et Software Engineers. Cette équipe a pour objectif de garantir le fonctionnement des produits Load Balancing, Content Delivery Network (CDN) et Anti-Bot, en gérant l’installation, la configuration, la mise à jour, la sauvegarde et le support. Le but de ces produits est d’exposer des ressources (web sites, applications, API) en optimisant la sécurité et augmentant le delivery, de manière provider agnostic. Tu devras : -Contribuer à l'automatisation des tâches manuelles de support et d'administration des solutions. -Construire et exploiter des infrastructures sécurisées et résiliantes multi-providers. -Analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures -Identifier et gérer la dette des développements existants. -Intégrer notre cycle de run et élaborer des mesures correctives pour résoudre les root causes des incidents.

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Azure DevOps
BigQuery
DBT

3 ans
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
Ingénieur Devops (F/H)

CELAD
Publiée le
Bash
CI/CD
GitLab CI

1 an
400-450 €
Nîmes, Occitanie

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (400-450€/j) – 🏠 3 jours de télétravail par semaine – 📍 Nîmes (30) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Ingénieur Devops. 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Automatiser les processus de déploiement et de gestion des infrastructures, - Mettre en place et gérer les outils de CI/CD (Intégration Continue / Déploiement Continu), - Surveiller les performances des systèmes et des applications, - Assurer la sécurité et la conformité des infrastructures, - Collaborer avec les équipes de développement pour optimiser les processus de développement et de déploiement, - Gérer les incidents et assurer la disponibilité des services, - Documenter les procédures et les configurations.

CDI

Offre d'emploi
Ingénieur SysOps Cloud GCP

AGH CONSULTING
Publiée le
Cloud
Confluence
DNS

40k-65k €
Meudon, Île-de-France

Nous recherchons pour l'un de nos clients un(e) Ingénieur(e) SysOps Cloud Public qui aura la responsabilité d’assurer le MCO (Maintien en Condition Opérationnelle), la sécurisation et l’optimisation des ressources déployées sur GCP. A ce titre, vos principales missions seront les suivantes : • Administrer et exploiter les environnements GCP. • Gérer les incidents et assurer les astreintes de niveau 2/3. • Optimiser l’usage des ressources GCP (FinOps, performances). • Déployer et maintenir l’automatisation de l’infrastructure (Terraform, CI/CD). • Assurer le durcissement sécurité des environnements et comptes GCP. • Mettre en place et exploiter la supervision centralisée (Cloud Logging, Monitoring). • Rédiger la documentation d’exploitation et former les équipes internes

Freelance
CDI
CDD

Offre d'emploi
Ingénieur DevOps (H/F)

CONCRETIO SERVICES
Publiée le
Ansible
CI/CD
DevOps

6 mois
40k-45k €
350-400 €
Nantes, Pays de la Loire

🎯 Contexte de la mission Vous intégrerez l’équipe Plateforme Échanges dans un environnement Agile (Agile Master + Product Owner). Votre rôle consistera à optimiser l’industrialisation, la sécurisation et la supervision des plateformes d’échanges stratégiques de l’entreprise, tout en contribuant à leur évolution et à leur résilience. 🛠️ Vos missions principales Améliorer et automatiser l’industrialisation des plateformes d’échanges : AMQ, Kafka, WSO2, Apigee, Bucket GCP. Renforcer la sécurité et la supervision de ces plateformes dans un environnement cloud public. Travailler sur la résilience des solutions Apigee et Kafka. Accompagner la transition vers la fin d’usage d’AMQ et migration vers les solutions cibles. Collaborer en méthodologie agile avec les équipes techniques et fonctionnelles. Participer activement à la veille technologique et proposer des axes d’amélioration continue.

Freelance
CDI
CDD

Offre d'emploi
Administrateur OpenShift

FIRST CONSEIL
Publiée le
AWS Cloud
Azure
CI/CD

1 an
40k-45k €
400-550 €
Île-de-France, France

La plateforme OpenShift est déjà installée et opérationnelle dans les environnements de production, de préproduction et de développement. La priorité est de renforcer les opérations, d'améliorer la fiabilité et de faire évoluer la plateforme vers des niveaux supérieurs d'automatisation, d'observabilité et de sécurité. L'administrateur jouera un rôle clé dans : La stabilisation et l'optimisation des clusters existants La définition et la mise en œuvre des meilleures pratiques La migration vers un environnement Bare Metal La conduite des améliorations et des mises à niveau de la plateforme La garantie de la conformité aux exigences organisationnelles et réglementaires. L'expérience du profil doit répondre aux exigences minimales suivantes : Expérience en administration de systèmes Linux et en environnements conteneurisés Solide expertise pratique de l'exécution et de la gestion de clusters Kubernetes/OpenShift Forte expérience des environnements de production critiques Attentes Assurer la disponibilité, la stabilité et les performances des clusters OpenShift Gérer les accès utilisateurs, les quotas, les espaces de noms et les ressources associées Diriger et accompagner la migration vers un environnement Bare Metal Mettre en œuvre et maintenir des solutions de surveillance, d'observabilité et de journalisation Appliquer et améliorer les politiques de sécurité Contribuer au cluster Mises à niveau, améliorations et gestion du cycle de vie

Freelance

Mission freelance
INGENIEUR PRODUCTION SYSTEME CLOUD H/F

HAYS France
Publiée le
Azure
Google Cloud Platform (GCP)
Linux

6 mois
400-550 €
Paris, France

Nous sommes actuellement à la recherche d'un ingénieur Production Système Cloud. En tant qu'Ingénieur(e) de Production Système & Cloud, vous jouerez un rôle clé dans le maintien et l'évolution de nos environnements système et cloud, tout en participant à l'amélioration continue. Votre mission principale consistera à assurer la disponibilité, la sécurité et l'optimisation de nos plateformes, en intervenant aussi bien sur des aspects opérationnels (run). /!\: Nous demandons une expérience solide sur les environnements Azure et Microsoft Windows Server.

Freelance

Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

CDI

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)

Hexateam
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
MSBI

45k-60k €
Paris, France

Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Freelance
CDI

Offre d'emploi
TECH LEAD POWER BI

UCASE CONSULTING
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Power Automate

3 ans
40k-45k €
290-750 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un profil Tech lead Power BI. Profil Hybride : Tech lead Power BI / System Architect (l’activité sera probablement répartie à 50/50 sur ces 2 rôles) Expérience requise : 5-10 ans sur Power BI + une bonne expérience en modélisation avancée, administration Power BI et optimisation complexe Il doit également avoir une expérience de définition d'architecture technique en environnement Power BI - Big Query (Google Cloud Platform). Connaissances techniques : Power BI (Dashboard, Dataset, Dataflow, Power automate et Report builder) Big Query (Google Cloud Platform) ou cloud équivalent Connaissances générales : Base de données relationnelles Modélisation avancée Architecture BI-DWH-serveur Bonnes pratiques de livraison CI/CD Exigences non fonctionnelles dans un environnement BI Approche Security by Design Scope de la mission : Analyse, conception sur les nouveaux besoins de reporting Développements avancés (Dashboard, Dataset, Dataflow, Power automate, Report builder) Définition/diffusion des bonnes pratiques de développement Administration de la plateforme Power BI et des gateway Mise en place des outils d’administration / Monitoring Power BI Audit de programme Power BI Préconisation d’optimisation Power BI Accompagnement des équipes de développement Support Power BI L3 sur les incidents Définition des architectures, Rédaction des documents associés.

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

285 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Île de Clipperton, France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous