Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Lyon
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Offre d'emploi
Devops Senior KAFKA (H/F)
Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Consultant DevOps H/F
Nous recherchons un(e) Consultant(e) DevOps confirmé(e) capable d'intégrer le développement, l'assurance qualité et d'orchestrer les problématiques de scalabilité, d'automatisation et d'industrialisation. Votre devise : "réduire les interventions humaines pour améliorer la qualité et accélérer les livraisons" Vos missions seront : • Accompagner l'intégration et le déploiement continue des solutions (CI/CD) • Améliorer les processus, les automatiser et favoriser la qualité • Orchestrer et résoudre des problématiques de scalabilité, d'automatisation et d'industrialisation • Piloter, organiser et automatiser tous les tests afin de garantir le bon fonctionnement des solutions • Vous inscrire dans une démarche d'amélioration continue et d'agilité En tant que Consultant(e) DevOps vous maitrisez : • Des outils de construction et de virtualisation : Jenkins,Docker, Kubernetes • Des outils de monitoring : ELK (elastic, logstach, kibana), Prometheus, grafana, Nagios, Datadog • L'infrastructure as code : Ansible, Terraform • Les langages de programmation java, javascript, python, ruby, C/C++ • Des outils de qualité de code : Sonarqube • Le repository de code : Git, GitHub, SVN, Bitbucket • Les langages de scripting bash, shell, python • Les Systèmes d'exploitation Linux, Windows • Les Cloud provider Microsoft Azure, Google Cloud Platform (GCP),AmazonAWS, IBM • Les méthodes agiles • La sécurité des données Référence de l'offre : s1ylotrojc
Offre d'emploi
Ingénieur de production - Devops
Contexte de la mission Dans le cadre d’un projet de modernisation des environnements de production, notre client basé à Lyon recherche un(e) Ingénieur Production / DevOps pour intervenir sur des sujets d’automatisation, de fiabilisation et de déploiement continu. Mission Freelance – Ingénieur Production / DevOps Localisation : Lyon Disponibilité : Immédiate Expérience : 3 ans minimum Environnement technique Cloud : AWS / Azure / GCP CI/CD : GitLab CI, Jenkins, ArgoCD Conteneurisation : Docker, Kubernetes Infrastructure as Code : Terraform, Ansible Monitoring : Prometheus, Grafana, ELK Scripting : Python, Bash Profil recherché Minimum 3 ans d’expérience en environnement DevOps ou production Bonne maîtrise des outils d’automatisation et de déploiement Capacité à intervenir sur des environnements critiques Autonomie, rigueur et esprit d’équipe

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- codice couponTEMU {{"ALA394039"}} sconto di 20 € Settembre 2025
- TEMUCode promo 30% de réduction [ALA394039] nouveau client
- TℰMU Gutscheincode [ACW784957] für 20 € und 30 % Rabatt
- Code promo TℰMU 30% de réduction [ALA394039] nouveau client
- Code promo TℰMU 20€ de réduction [alh199386] & 30% nouveau client
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres