Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 418 résultats.
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Ingénieur DevOps / Ops confirmé

ESENCA
Publiée le
CI/CD
Github
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Objectif du poste Assurer le suivi et l’animation des opérations d’un domaine composé de plusieurs produits digitaux orientés e-commerce, vente omnicanale et paiement pour des clients professionnels, dans un contexte fortement contraint par les enjeux Ops et DevOps. Contexte Le domaine est constitué de quatre produits digitaux critiques pour l’activité. L’ingénieur DevOps/Ops intervient en binôme afin de garantir la fiabilité, la sécurité et la performance des plateformes, tout en accompagnant les équipes dans l’adoption des pratiques DevOps et Agile. Missions principales1. Gestion des infrastructures et automatisation Maintenir, déployer et automatiser les infrastructures Cloud via l’Infrastructure as Code (Terraform), le GitOps et les pipelines CI/CD (GitHub Actions). Administrer et fiabiliser les solutions de sauvegarde et de reprise d’activité (DRP), en automatisant les politiques de RPO/RTO. 2. Culture et pratiques DevOps / Agile Promouvoir et diffuser les pratiques DevOps auprès des équipes techniques et non techniques. Contribuer à la mise en œuvre de la livraison continue et des rituels Agiles. 3. Sécurité et FinOps Collaborer avec les équipes de cybersécurité pour sécuriser les infrastructures. Identifier et corriger les vulnérabilités dans une démarche « Security by Design ». Piloter les coûts Cloud dans une approche FinOps. 4. Fiabilité et observabilité (SRE) Diffuser les bonnes pratiques Ops au sein de la plateforme. Garantir la fiabilité et la résilience des systèmes via une démarche SRE (SLO, parcours utilisateurs). Mettre en œuvre et maintenir les solutions d’observabilité et d’alerting (Datadog). 5. Amélioration continue Maintenir la documentation technique à jour. Proposer et mettre en œuvre des améliorations sur les processus, outils et architectures. Compétences techniques (Hard skills) Automatisation et IaC : scripting (Python, Bash), Terraform. Méthodologies DevOps, Agile et principes SRE. CI/CD : conception et maintenance de pipelines (GitHub Actions). Cloud : expertise GCP (Cloud Storage, BigQuery, Pub/Sub, Cloud Run, IAM). Conteneurisation : Kubernetes. Sécurité / DevSecOps : Trivy, CodeQL, GitHub Advanced Security. Gestion des incidents et résolution de problèmes complexes. Réseaux : CDN (Fastly), DNS, TCP/IP. Prérequis Culture et pratique DevOps / Agile : confirmé (impératif) Sécurité et FinOps : confirmé (important) Fiabilité et observabilité (SRE) : confirmé (important) Anglais professionnel : impératif
Freelance

Mission freelance
Data Engineer Senior GCP

TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery

3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Freelance
CDI

Offre d'emploi
Site Reliability Engineer / SRE (Lille - 3j de présentiel par semaine non négociable)

ANDEMA
Publiée le
Datadog
Github
Google Cloud Platform (GCP)

12 mois
50k-65k €
500-530 €
Lille, Hauts-de-France
Contexte de la mission Renforcer l'équipe Opérations et créer une fonction SRE structurante au sein de l’organisation. Nous recherchons un·e SRE senior capable d’incarner et de structurer la pratique SRE, avec une approche hybride RUN → BUILD : Gérer le RUN (gestion des incidents, traitement des tickets, maintien en conditions opérationnelles) Transformer les irritants récurrents en projets d’amélioration Automatiser les opérations pour réduire le volume de tickets et éviter leur réapparition Utiliser les problématiques du RUN comme levier pour impulser des projets BUILD (infra, performance, sécurité, fiabilité) L’objectif : faire du RUN un moteur d’amélioration continue, en collaboration étroite avec les équipes infra et développement. ️ Missions principales Garantir la disponibilité, performance et scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, post-mortem, correctifs, prévention) Structurer et améliorer l’ observabilité et la qualité de service Automatiser les opérations et le support (approche software & IA pour les Ops) Réduire la dette opérationnelle via des chantiers techniques structurants Collaborer étroitement avec les équipes Dev, DevOps et Sécurité Stack & environnement Cloud : GCP Orchestration : Kubernetes Systèmes : Linux Langages & IaC : Python, Terraform, Java Monitoring : Datadog CI/CD : GitHub, GitHub Actions Réseaux & sécurité : WAF, protection DDoS Modalités : Localisation : Lille (accessible en transports) Durée de la mission : longue, plusieurs années
Freelance

Mission freelance
Proxy Product Owner Data GCP (H/F) - 75

Mindquest
Publiée le
SIRH

12 mois
Paris, France
Dans le cadre du renforcement de ses équipes, notre client recherche un PPO Data GCP afin d’accompagner les projets liés aux données RH et au SIRH. La mission s’inscrit dans une logique de collaboration étroite entre les équipes métiers et la DSI, avec un fort enjeu de coordination et de pilotage. Vous intervenez en tant qu’interface entre les équipes métiers RH et les équipes techniques. À ce titre, vous : - Assurez le suivi et le pilotage des projets Data SIRH - Faites le lien entre les besoins métiers et les solutions techniques - Coordonnez les différents interlocuteurs (RH, DSI, Data) - Identifiez les risques et remontez les alertes de manière proactive - Intervenez sur les données issues du SIRH (notamment SAP SuccessFactors) - Exploitez les données dans un environnement Data (Google BigQuery) - Participez à la production et au suivi de reportings sous Microsoft Power BI - Contribuez à la gouvernance des données avec DataGalaxy
Freelance

Mission freelance
Ingénieur·e Backend GenAI / IA Générative

Montreal Associates
Publiée le
API REST
CI/CD
Docker

1 an
75000, Paris, Île-de-France
Pour le compte d’un grand groupe international (client masqué) , nous recherchons un·e Ingénieur·e Backend pour intervenir sur une plateforme d’ IA générative déployée à grande échelle en interne. Tu rejoindras une équipe technique travaillant sur une solution stratégique qui vise à améliorer la productivité des collaborateurs grâce à l’intégration de modèles de langage (LLM). Ton rôle consistera à concevoir, développer et maintenir des services backend performants, robustes et scalables , capables de gérer un volume élevé d’interactions IA, d’orchestrer différents fournisseurs de LLM et d’assurer l’intégration fluide avec le SI existant. Missions principales : Conception et développement de microservices backend Développement et optimisation d’ API REST à forte volumétrie Orchestration et intégration de LLM (plusieurs providers) Contribution à la scalabilité, performance et fiabilité de la plateforme Participation à l’architecture backend et aux choix techniques Collaboration en environnement Agile avec équipes produit, IA et DevOps
CDI
Freelance

Offre d'emploi
Ingénieur Cloud DevOps GCP/AWS

Deodis
Publiée le
AWS Cloud
DevOps
Docker

12 mois
55k-62k €
520-600 €
Montpellier, Occitanie
Nous recherche pour le compte d'un client un Ingénieur Cloud DevOps Senior orienté Data capable de concevoir, d’implémenter et d’administrer une infrastructure Cloud hybride. Missions : Piloter la conception technique, la mise en oeuvre et l’optimisation de la plateforme Cloud pour permettre une bonne exploitabilité. Accompagner les ingénieurs Cloud dans l’implémentation de la solution choisie Développer et maintenir l’infrastructure as code (IaC) avec Terraform/Terragrunt Automatiser et maintenir les pipelines CI/CD des projets Cloud (GitLab) Etre garant de la qualité du code de l’équipe (peer programming, revue de code, ...) Collaborer avec les équipes applicatives, infrastructure et DevOps pour définir et implémenter les bonnes pratiques GROUPE. En collaboration avec l’architecte du projet, assurer la conformité et la sécurité GROUPE des architectures cloud (authentification, gestion des secrets, réseau, ...) Documenter les procédures d’implémentation, d’utilisation et d’exploitation. Mettre en place des solutions d’alerting et de monitoring avancées (Prometheus, Grafana, ELK, Google Cloud Observability) Support et RUN : Assurer le maintien en conditions opérationnelles en mode GitOps.
Freelance

Mission freelance
Ingénieur DevOps

JobiStart
Publiée le
DevOps
Google Cloud Platform (GCP)
Python

1 an
400-450 €
Île-de-France, France
Administrer et exploiter les environnements cloud (AWS, GCP) et Kubernetes . Mettre en place et optimiser la scalabilité des applications (HPA). Surveiller et améliorer les performances et la disponibilité des services. Assurer la sécurité des infrastructures cloud et des clusters Kubernetes. Concevoir, maintenir et faire évoluer les pipelines CI/CD . Automatiser les déploiements et la gestion de l’infrastructure ( IaC / GitOps ). Garantir le respect des SLA et appliquer les pratiques SRE (monitoring, alerting, gestion d’incidents). Gérer la mise en cache et la diffusion de contenu via CDN . Participer à la conception d’ architectures cloud natives , résilientes et distribuées. Contribuer à l’ amélioration continue des plateformes et des processus DevOps.
CDI

Offre d'emploi
Data Analyst H/F CDI UNIQUEMENT

Proxiad
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
SQL

Île-de-France, France
Poste de Data Analyst IT au sein des produits Data Usages Retail. Au sein d'une Squad du produit, elle ou il aura en mission - Recueil et analyse des besoins métiers, ainsi que l’évaluation de leur faisabilité (avec les équipes métiers et les banques) - Proposition de solutions et chiffrage des travaux - Rédaction des spécifications fonctionnelles à destination des Data Engineers - Réalisation de tableaux de bord sur Power BI - Suivi des développements et des recettes (planification et coordination des phases de recette avec les métiers et/ou les banques) - Participation à la maintenance du SI (suivi de production et résolution des incidents) - Support d'expertise : fournir un soutien pour des demandes d'expertises ponctuelles.
Freelance

Mission freelance
Manager IT

Castelis
Publiée le
AWS Cloud
Fortinet
Google Cloud Platform (GCP)

6 mois
500-550 €
Levallois-Perret, Île-de-France
Piloter le bon fonctionnement des infrastructures IT (réseau, systèmes, environnements hybrides). Assurer la disponibilité et la performance du SI, et intervenir dans la gestion des incidents critiques si nécessaire. Piloter les environnements cloud et leurs évolutions (résilience, optimisation, fiabilité). Structurer et faire évoluer les standards d’exploitation (process, supervision, documentation). Piloter des prestataires et garantir la qualité de service. Manager une équipe support basée à l’international. Participer à la roadmap IT sur les sujets infrastructures, en lien avec la direction IT. Travailler en étroite collaboration avec le RSSI sur les sujets de sécurité, conformité et gestion des risques.
CDI

Offre d'emploi
Ingénieur DEVOPS

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
AWS Cloud
Azure

Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
CDI

Offre d'emploi
Développeur Full-Stack

KUBE Partners S.L. / Pixie Services
Publiée le
Angular
Google Cloud Platform (GCP)
Java

Lille, Hauts-de-France
Ce que nous offrons : - La chance de travailler avec des technologies de pointe telles que Java, Javascript, Node.js, Vue.js, Spring, React, CI/CD, Kafka, Kubernetes, Cerberus, GCP, et bien plus encore. - Un rôle crucial dans une équipe qui valorise l'innovation, l'apprentissage continu et le développement professionnel. - Une position basée dans la métropole lilloise, au coeur d'une communauté technologique dynamique. Missions pour le Développeur Fullstack : - Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. - Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP. - Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. - Participation active à la phase de conception produit, en apportant des idées innovantes et en travaillant sur des prototypes. - Gestion et mise en oeuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. - Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
CDI

Offre d'emploi
Developpeur Go - Connaissances DevOps

KUBE Partners S.L. / Pixie Services
Publiée le
DevOps
DevSecOps
Go (langage)

40k-47k €
Nord, France
Description détaillée Nous recherchons un(e) consultant(e) maîtrisant le DevSecOps pour renforcer notre équipe et accélérer le déploiement de notre stratégie de sécurité applicative. Le profil retenu sera un maillon essentiel pour diffuser la culture de la sécurité et outiller nos équipes de développement. LES OBJECTIFS DE LA MISSION 1. Industrialiser la sécurité dans les pipelines CI/CD Participer au déploiement, à la configuration et à la maintenance des outils d'analyse de sécurité ( SAST, DAST, SCA ). Développer des scripts et des automatisations pour renforcer la sécurité de nos chaînes d'intégration et de déploiement continu. Contribuer à l'optimisation de notre "Security Toolchain". 2. Contribuer à l'acculturation sécurité Produire de la documentation technique et des guides de bonnes pratiques. Assurer une veille sur les menaces émergentes et les solutions de sécurité applicative.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

418 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous