Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Offre d'emploi
EXPERT CNAPP / CWPP
🎯 Missions principales : - Piloter et réaliser le déploiement des agents de sécurité CWPP sur les environnements conteneurisés (Kubernetes, Docker…) et VM, en garantissant leur intégration et leur fonctionnement optimal. - Participer à la mise en œuvre et à l’amélioration continue de la plateforme de sécurité cloud, en tenant compte des besoins métiers et des risques identifiés. - Assurer la gestion et la supervision des solutions CWPP, avec un focus particulier sur la protection des workloads dans un environnement multicloud (Azure,GCP, AWS, Alibaba Cloud etc...). - Collaborer étroitement avec les équipes cloud, sécurité et opérations pour assurer la conformité et la robustesse des protections mises en place. - Participer à des activités de project management : planification, suivi des déploiements, gestion des risques et coordination avec les parties prenantes. - Rédiger la documentation technique, les procédures et les guides d’utilisation, tout en animant des formations ou ateliers internes si besoin. - Rester à la pointe des évolutions technologiques dans le domaine CWPP et proposer des améliorations pour renforcer la posture sécurité cloud.
Offre d'emploi
Expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) H/F
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Offre d'emploi
Développeur SPARK/ SCALA
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Offre d'emploi
Architecte Cloud Senior Multi-Cloud (AWS / Azure / GCP)
Dans le cadre d’un grand programme de transformation SI, l’entité numérique du client final recherche un Architecte Cloud Senior pour renforcer son expertise sur les produits numériques hébergés sur AWS, Azure et GCP. L’objectif est de concevoir des architectures Cloud-native sécurisées, performantes et conformes aux standards internes. Missions principales Participer aux études de cadrage et à la définition d’architectures Cloud hybrides. Concevoir les solutions techniques en tenant compte de la sécurité, des coûts et de la performance. Rédiger la documentation d’architecture (DAT, schémas, audit infra). Contribuer à la mise en place des socles Cloud (AWS/Azure/GCP). Superviser les phases de build et de déploiement. Participer aux rituels Agile/SAFe et aux comités techniques. Accompagner la montée en compétence des équipes internes.
Mission freelance
Consultant Expert en Sécurité Opérationnelle - IAM CLOUD
Dans le cadre d’un projet stratégique mené par une grande organisation basée à Paris, nous recherchons un consultant expérimenté en sécurité opérationnelle , avec une expertise pointue en Identity and Access Management (IAM) sur les environnements Cloud Public : Google Cloud Platform (GCP) , Microsoft Azure et Amazon Web Services (AWS) . Le consultant rejoindra une équipe d’experts en sécurité Cloud pour renforcer les dispositifs IAM, accompagner les équipes projets et garantir la conformité aux politiques de sécurité internes. Vos missions principales : Auditer les environnements Cloud existants (GCP, Azure, AWS) afin d’identifier les vulnérabilités et les axes d’amélioration en matière de gestion des identités et des accès. Concevoir une stratégie IAM robuste , alignée sur les besoins métiers et les exigences de sécurité, incluant la gestion des permissions, des rôles et des politiques d’accès. Implémenter les meilleures pratiques de sécurité , notamment via des outils comme AWS SCP, GCP Deny Policy et les mécanismes de contrôle natifs des plateformes Cloud. Accompagner les équipes projets , en les formant aux concepts IAM et en les sensibilisant aux enjeux de sécurité. Documenter les processus et configurations , afin d’assurer la traçabilité et la pérennité des dispositifs mis en place.
Mission freelance
Développeur·se PHP / Cloud (GCP)
Vous êtes développeur·se backend avec une bonne maîtrise de PHP et un intérêt pour les environnements cloud ? Vous souhaitez rejoindre un projet structuré au sein d’une équipe expérimentée, sur une mission technique et stable ? Cette opportunité pourrait bien vous correspondre ! Nous recherchons un·e Développeur·se PHP / Cloud (GCP) pour une mission de longue durée au sein d’une DSI du secteur de l'énergie. interviendrez sur : La maintenance évolutive des applications PHP / Symfony en production La mise en œuvre de nouvelles fonctionnalités techniques ou métiers L’optimisation de la performance des applications existantes L’amélioration continue de la qualité du code et des pipelines CI/CD (GitLab, tests automatisés) Le renforcement de l’observabilité et du monitoring applicatif La collaboration avec les équipes dev et ops, dans un environnement agile Environnement technique : Langages & Frameworks : PHP, Symfony Cloud : Google Cloud Platform (GCP) CI/CD & Conteneurisation : GitLab CI, Docker, Docker-in-Docker, Kaniko SGBD : Oracle, PostgreSQL Méthodologies : Scrum, Agile Outils et pratiques DevOps : Git, Bash, Ansible, Puppet, Terraform, Kubernetes, monitoring et documentation des infrastructures
Mission freelance
Ingénieur de données GCP (H/F)
Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.
Mission freelance
Scrum master Data H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Scrum master Data H/F à Paris, France. Les missions attendues par le Scrum master Data H/F : L’objectif est de mettre en place un cycle agile sur l’ensemble des activités de l'équipe de Dev du département et de piloter le délivery (jalon, budget, RAF fonctionnel, qualificiation des chiffrages, ...) ainsi que d'être le point d'entrée de l'équipe de dev dans les différentes instances. Le savoir être sur ce poste sensible est important puisque ce poste est une vitrine de la qualité du travail fait par l'équipe. Une rigueur d'exécution et une qualité de communication est nécessaire
Mission freelance
Expert Cloud GCP
Dans le cadre de notre premier projet de migration vers GCP, dont l'objectif est de fournir un accès centralisé via API aux modèles VERTEX et GEMINI, nous devons garantir la sécurité dès la conception de notre environnement GCP. Le consultant est attendu pour : comprendre la mise en œuvre de la sécurité dans GCP par une autre filiale du groupe formaliser des lignes directrices techniques de sécurité pour les services GCP qui seront utilisés proposer des garde-fous à mettre en place au niveau de l'organisation GCP Services GCP identifiés : Organisation Cloud Storage Secret Manager Cloud KMS Cloud Router HA VPN Gateway GCP Cloud Interconnect Vertex AI Model Armor Point de terminaison Private Service Connect Remarque : Les benchmarks de niveau 1 du CIS applicables à GCP ont déjà été sélectionnés
Offre d'emploi
Architecte Cloud GCP H/F
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Architecte Cloud GCP H/F C’est votre m ission Vous êtes passionné·e par le Cloud et l’architecture technique ? Ce poste est fait pour vous. En tant qu’ Architecte Cloud, vous êtes responsable de la définition , de la validation et de l’ optimisation des architectures techniques de notre écosystème : Côté build : Vous contribuez à construire un socle cloud robuste et évolutif : Produire les livrables d’architecture liés à la roadmap cloud. Définir et valider les choix techniques des projets d’infrastructure et de migration. Garantir la cohérence globale des architectures avec les orientations stratégiques. Participer aux comités techniques et à la gouvernance cloud. Documenter et partager les bonnes pratiques d’architecture. Côté run : Vous veillez à la performance et à l’optimisation continue des environnements : Mettre en place et piloter une démarche FinOps (suivi et optimisation des coûts cloud). Superviser la qualité des déploiements et la conformité des environnements. Contribuer à l’ amélioration continue des processus d’exploitation et d’automatisation. Collaborer avec les équipes IT, Finance et Réseaux pour garantir une vision unifiée. Maintenir la sécurité et la performance des architectures cloud. C’est votre parcours Vous avez au moins 8 ans d’expérience dans des environnements Cloud exigeants. Vous aimez allier vision stratégique et excellence technique sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Cloud public : GCP , hybridation, sécurité, performance. Infrastructure as Code : Terraform, Ansible, CI/CD. FinOps / Cost Management sur environnements cloud. Réseaux, Sécurité, Systèmes : compréhension des environnements complexes. Pilotage transverse et documentation d’architecture. C’est votre manière de faire équipe : Excellente communication et esprit de synthèse. Sens du service et de la collaboration transverse. Esprit d’analyse, rigueur et autonomie. Force de proposition et curiosité technologique. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris 15ᵉ Contrat : CDI Télétravail : Hybride Salaire : De 65 K€ à 75 K€ brut annuel Famille métier : Architecture / Cloud / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Expert DevSecOps / IaC Multi-Cloud
Au sein de l’équipe produit Cloud, l’expert DevSecOps intervient sur la mise en œuvre, l’automatisation et la sécurisation des déploiements applicatifs dans un contexte multi-Cloud (AWS/Azure/GCP). Missions principales Concevoir et maintenir les pipelines CI/CD (GitLab CI, Jenkins). Mettre en œuvre les pratiques Infrastructure as Code (Terraform, Ansible). Intégrer la sécurité code (SAST/SCA, SonarQube, Checkmarx). Gérer les environnements dev, recette, prod. Industrialiser les tests, quality gates et rollbacks. Contribuer aux démarches FinOps / optimisation. Documenter et transférer les bonnes pratiques aux équipes internes.
Offre d'emploi
Architecte Data / Cloud
Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.
Offre d'emploi
Expert Multi-Cloud (AWS/Azure/GCP)
Au sein d’un grand programme de transformation SI d’un acteur majeur du secteur énergétique, vous interviendrez comme Expert Multi-Cloud & Data pour accompagner la conception, le déploiement et l’exploitation de produits numériques et plateformes Data hébergés sur les principaux Cloud Providers (AWS, Azure, GCP et Cloud Souverain). Votre rôle consistera à renforcer les équipes internes sur l’ensemble des volets Cloud : architecture, sécurité, automatisation, observabilité, migration. Responsabilités principales Concevoir et déployer des architectures Cloud hybrides et sécurisées (AWS / Azure / GCP) pour des produits et plateformes Data. Réaliser les études de cadrage , choix technologiques et analyses de faisabilité (techniques et économiques). Définir et mettre en œuvre les solutions d’Infrastructure as Code (Terraform, ARM, CloudFormation, etc.). Participer à l’intégration d’offres Cloud de Confiance et à la migration de plateformes On-Premise vers le Cloud. Contribuer à la stratégie DevSecOps : pipelines CI/CD, qualité, sécurité du code, automatisation. Déployer les outils de supervision, monitoring et observabilité (CloudWatch, Azure Monitor, Prometheus, Datadog, Dynatrace…). Assurer la gestion des incidents et le reporting opérationnel . Mener des actions de formation et transfert de compétences auprès des équipes internes. Participer activement aux cérémonies Agile / SAFe (sprints, rétrospectives, PI planning…).
Offre d'emploi
Architecte data / IA (F/H)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.
Offre d'emploi
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .
Offre d'emploi
DATA ENGINEER GCP
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres