Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 371 résultats.
Freelance
CDI
CDD

Offre d'emploi
Cloud GCP Data & IA Senior

bdevit
Publiée le
CI/CD
GenAI
Google Cloud Platform (GCP)

36 mois
Île-de-France, France
Contexte : Dans le cadre de l’accélération des usages IA générative au sein d’un grand groupe bancaire, une entité dédiée aux infrastructures IT renforce ses équipes Cloud afin de concevoir et industrialiser des plateformes Data, AI et GenAI sur GCP. Le consultant interviendra sur des cas d’usage autour des LLM et du RAG , avec des enjeux de scalabilité, sécurité, gouvernance des données et mise en production dans un environnement bancaire exigeant. Missions Principales : Concevoir et déployer des architectures Data, AI & GenAI sur GCP ; Mettre en œuvre des solutions basées sur des LLM (Vertex AI, modèles open source, APIs) ; Concevoir et industrialiser des pipelines RAG (Retrieval-Augmented Generation) : ingestion, vectorisation, recherche sémantique ; Implémenter des chaînes MLOps / LLMOps (CI/CD, évaluation, monitoring des modèles) ; Automatiser les infrastructures ( Terraform, IaC ) ; Assurer le run : performance, monitoring, optimisation des coûts (FinOps) ; Garantir la sécurité et la gouvernance des données sensibles (IAM, conformité, gestion des accès) ; Accompagner les équipes métiers et data dans l’industrialisation des cas d’usage GenAI.
Freelance

Mission freelance
[FBO] Architecte cloud GCP - Paris - 1478

ISUPPLIER
Publiée le

8 mois
400-615 €
Paris, France
Description et localisation Contexte & mission Renfort de l’équipe Architecture Cloud GCP dans un contexte de continuité (5 projets, criticité normale). La mission est orientée gouvernance cloud, architecture et bonnes pratiques, avec un rôle de référent et d’accompagnement client. ✅ Activités principales Rédaction de DAT / DEX / patterns d’architecture : 40 % Audit d’infrastructures GCP : 20 % POC de nouvelles solutions : 20 % Accompagnement des clients vers des architectures recommandées : 20 % ✅ Expertise technique clé requise Gouvernance GCP : Organizations, Folders, Projects, IAM, billing, policies Landing zones sécurisées : naming, environnements, Shared VPC, VPC Service Controls Réseau GCP : VPC, subnets, VPN, Interconnect, peering, load balancing Sécurité : IAM, Service Accounts, IAP, Cloud Armor, KMS, Secret Manager, SCC GKE (standard & autopilot), RBAC, policies, service mesh CI/CD & GitOps : Cloud Build/Deploy, Artifact Registry, ArgoCD / Flux Observabilité & SRE : Monitoring, Logging, SLI/SLO, alerting Compute & Serverless : GCE, Cloud Run, Functions Data (batch & streaming) : Pub/Sub, Dataflow, BigQuery, Dataproc, Composer Stockage & BDD managées : Cloud Storage, Cloud SQL, Spanner, DR API Management : Apigee, IAM/IAP, OIDC FinOps : budgets, labels, committed use Résilience & continuité : multi-région, RTO/RPO, PRA ✅ Soft skills attendus Forte capacité de communication et de synthèse Posture de conseil et d’influence transverse Autonomie, esprit critique, sens des priorités Travail collaboratif, partage de connaissances Capacité à gérer des environnements complexes ✅ Profil recherché Bac+5 informatique ou équivalent +7 ans d’expérience en architecture cloud GCP Expérience retail / grande distribution appréciée Paris, France | Télétravail possible Type de projet (support / maintenance / implementation /…) : Implémentation Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jrs / semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Freelance
CDI

Offre d'emploi
Consultant·e Customer Technology Advisor / Delivery Manager + Product Owner

ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery

2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud , de la Data , du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes, environnements conteneurisés et outillage DevOps). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principalesRelation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Faciliter l’alignement entre les besoins métiers et les capacités techniques des plateformes Cloud, Data et DevOps . Adoption & Acculturation Accompagner les équipes dans l’adoption des nouvelles offres et fonctionnalités. Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Sensibiliser les utilisateurs aux bonnes pratiques autour des plateformes OpenShift , des chaînes CI/CD Jenkins et des services Data/Cloud. Expertise & Innovation Participer à l’expérimentation de nouvelles technologies ( sandbox, POC ). Être référent sur les technologies Data, Cloud, conteneurisation, orchestration et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Contribuer à la promotion et à l’adoption de solutions basées sur OpenShift , Jenkins , architectures distribuées et services managés Cloud. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres. Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Participer à l’amélioration de l’expérience utilisateur sur les offres de plateformes, de déploiement et d’industrialisation. Environnement techniqueBig Data & NoSQL Data Lakehouse Cloudera Teradata MongoDB Bases de données PostgreSQL Oracle MySQL SQL Server Redis Cloud Public (GCP) BigQuery Firestore Conteneurisation, plateformes & DevOps OpenShift Kubernetes Docker Jenkins GitLab CI/CD / outils d’industrialisation API management, déploiement applicatif et automatisation Environnements techniques Data Streaming Architectures distribuées Plateformes applicatives et environnements conteneurisés
CDI
Freelance

Offre d'emploi
Mission freelance - Portage - DevOps PHP (2-5 ans) - Rennes

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
PHP
RabbitMQ

1 an
40k-50k €
100-400 €
Rennes, Bretagne
Bonjour, Pour l’un de mes clients, je recherche un(e) : Intégrateur DevOps confirmé – Rennes Mission au sein du pôle Infra pour garantir la disponibilité, la performance et la sécurité des applications sur un environnement GCP, avec conteneurisation et automatisation. Travail sur l’administration des systèmes Linux et Windows, le support applicatif, le MCO, ainsi que l’automatisation des déploiements et du monitoring. Compétences : PHP obligatoire, RabbitMQ important. Docker, GitLab CI, Kubernetes, Terraform, Ansible, GCP souhaité. Profil recherché : DevOps PHP confirmé (2 à 5 an Hors Stages et Alternances ), à l’aise avec les environnements GCP, l’automatisation, le déploiement, la conteneurisation et l’administration systèmes. Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
Développeur Full Stack Angular/java

ESENCA
Publiée le
Angular
CI/CD
Docker

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme digitale internationale , un acteur majeur du retail renforce ses équipes autour d’un produit stratégique basé sur une architecture micro-frontend . Cette solution permet de construire des applications digitales (sites e-commerce, portails métiers) sous forme de briques modulaires, indépendantes et réutilisables , favorisant : l’agilité des équipes la scalabilité des systèmes la performance des applications l’évolution continue des expériences digitales Vous rejoindrez une équipe produit dédiée, responsable de l’exploitation, de la maintenance et de l’évolution de cette plateforme. 🧩 Mission En tant que Développeur Full Stack à dominante Frontend , vous contribuez activement à l’évolution d’une solution micro-frontend et à l’amélioration de l’expérience développeur. Vous intervenez sur l’ensemble du cycle de vie produit ( Build & Run ), avec une forte exigence sur la qualité, la performance et la robustesse. 🚀 Responsabilités principales1. Développement Full Stack Concevoir et développer des fonctionnalités frontend et backend Faire évoluer les outils d’administration et interfaces utilisateurs Garantir la performance, la disponibilité et la résilience des applications 2. Contribution à l’architecture Participer aux choix techniques et aux décisions d’architecture Appliquer et challenger les standards (sécurité, performance, qualité) Contribuer à la construction d’une architecture micro-frontend scalable 3. Cycle de développement agile Participer à toutes les phases : conception, développement, test, déploiement Contribuer à la préparation des releases Assurer le maintien en condition opérationnelle 4. Collaboration transverse Faire le lien entre équipes frontend et backend Travailler avec les équipes produit, intégration et déploiement Partager les bonnes pratiques et documenter les solutions techniques 5. Amélioration continue & DevOps Contribuer à l’automatisation des processus (CI/CD, monitoring, qualité) Améliorer les pratiques de delivery Participer à l’évolution des outils et méthodes 📦 Livrables attendus Développements robustes, testés et documentés Contributions aux choix d’architecture Documentation technique Amélioration continue des processus de delivery Support technique aux équipes utilisatrices 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile / produit 🎯 Objectif Développer et faire évoluer une plateforme digitale moderne basée sur une architecture micro-frontend , en garantissant performance, scalabilité et qualité de service pour l’ensemble des applications digitales.
CDI
Freelance

Offre d'emploi
Devops IA - Cloud &MLops

VISIAN
Publiée le
AI
AWS Cloud
CI/CD

3 ans
45k-70k €
500-700 €
Montpellier, Occitanie
Contexte et environnement Le pôle conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités d'un grand groupe bancaire. Le poste s'inscrit au sein de l'équipe GenAI du domaine d’expertise Data & IA, avec pour mission de concevoir des offres IA à l'échelle dans des environnements Cloud public ou privé. Périmètre d'intervention Le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Le candidat évoluera dans un environnement technique complexe, distribué, sécurisé et hautement disponible, au sein d'une équipe dédiée aux produits et services d'intelligence artificielle. Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI

Offre d'emploi
Architecte Systèmes et Réseaux

Audensiel
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Kubernetes

40k-45k €
Rouen, Normandie
À propos du défi En tant qu'Architecte, vous ne vous contentez pas de maintenir des serveurs ; vous dessinez le futur technologique de Audensiel. Votre mission est de concevoir des infrastructures résilientes, évolutives et sécurisées qui soutiennent notre croissance et nos innovations. Vos missions principales Conception & Stratégie : Designer les architectures systèmes et réseaux (on-premise, cloud ou hybride) en garantissant la haute disponibilité. Évolution Technologique : Piloter la transition vers le "Tout-Automatisé" (IaC - Infrastructure as Code) et l'optimisation des performances. Sécurité & Conformité : Collaborer avec les équipes Cybersécurité pour intégrer les protocoles de défense dès la phase de conception. Expertise Conseil : Accompagner les équipes de développement et la DSI dans le choix des solutions techniques et la gestion de projets complexes. Veille Technologique : Anticiper les ruptures technologiques pour maintenir notre avantage compétitif.
Freelance

Mission freelance
[SCH] Développeur Python / GCP - 1471

ISUPPLIER
Publiée le

10 mois
350-400 €
Paris, France
Dans le cadre du projet stratégique « Risques Climatiques & Physiques », le client souhaite mettre en place une solution permettant d’ingérer, agréger et exposer des données issues de sources multiples afin de produire des rapports métiers liés à la surveillance du risque de crédit. La mission consiste à intervenir sur un environnement basé sur Google Cloud Platform, au sein d’une équipe experte, avec des enjeux forts de performance, de fiabilité et de qualité des données. Le projet étant à forte visibilité, un haut niveau d’expertise technique est attendu. Une connaissance du domaine du risque de crédit constitue un plus. Objectifs et livrables : -Développer et intégrer des solutions Python / Spark sur GCP -Mettre en place et optimiser les traitements de données (ingestion, transformation, exposition) -Exploiter les services GCP (BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, GCS) -Participer à l’industrialisation des pipelines Data -Contribuer aux pratiques DevOps (CI/CD, déploiement, automatisation) -Garantir la qualité, la performance et la fiabilité des traitements -Collaborer avec les équipes projet dans un environnement Agile Profil recherché : -Le client recherche un développeur Python expérimenté, disposant d’une forte expertise sur Google Cloud Platform et sur les environnements Big Data. Le profil doit être capable d’intervenir sur des pipelines complexes, avec une bonne maîtrise de Spark et des services data GCP. -Une capacité à travailler en équipe, une bonne communication et une autonomie dans la gestion des sujets techniques sont attendues.
CDI

Offre d'emploi
Ingénieur Systèmes

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
Bash
Docker

40k-51k €
Lille, Hauts-de-France
🚀 Pixie Services recrute un Ingénieur Système dynamique et innovant ! 🚀 Contribuez à l'évolution technologique de notre entreprise basée dans la vibrant métropole lilloise. À propos de : Pixie Services, leader dans le secteur des solutions numériques, se distingue par son engagement envers l'innovation et la qualité. Située au cœur de la métropole lilloise , notre entreprise vise à transformer les défis technologiques en succès palpables, grâce à une équipe passionnée et dédiée. 🌟 Ce que nous offrons : Une chance de travailler sur des systèmes à la pointe de la technologie et de participer activement à des projets innovants. Un environnement de travail collaboratif, où le partage de connaissances et le développement professionnel sont encouragés. Un poste basé dans la métropole lilloise , au sein d'une entreprise reconnue pour son dynamisme et son innovation. 🔍 Missions pour l'Ingénieur Système : Gestion des systèmes : Administrer, configurer et optimiser les systèmes pour garantir performance et sécurité. Automatisation et scripts : Développer des scripts pour automatiser la gestion des systèmes et réduire les interventions manuelles. Surveillance et résolution de problèmes : Surveiller les systèmes pour détecter et résoudre rapidement les problèmes. Mises à jour et maintenance : Planifier et exécuter les mises à jour nécessaires pour assurer la sécurité et l'efficacité des systèmes. Support technique : Fournir un support technique de haut niveau aux équipes internes et contribuer à l'amélioration continue des processus IT.
Freelance

Mission freelance
Fullstack Software Engineer (React / Java)

Kamatz
Publiée le
Apache Kafka
Confluence
Datadog

6 mois
Lille, Hauts-de-France
Nous accompagnons actuellement un acteur majeur dans le développement d’un produit digital stratégique dédié à la gestion et à l’optimisation des flux de distribution (B2B, wholesale, franchises). Dans un contexte de forte croissance et de déploiement à grande échelle, nous recherchons un·e Software Engineer Fullstack avec une dominante Frontend pour renforcer une feature team dynamique. Contexte Le produit est utilisé par plusieurs typologies d’utilisateurs : Des équipes internes pilotant la stratégie de distribution Des clients B2B (partenaires wholesale et réseaux de franchise) Avec l’accélération de l’activité, la plateforme va connaître : Une forte montée en charge L’intégration de nombreux nouveaux partenaires Une croissance significative des usages Mission Développer de nouvelles fonctionnalités au sein d’une feature team Être référent·e Frontend tout en contribuant au Backend Concevoir des interfaces performantes et fluides sous React Développer et maintenir des services backend robustes en Java / Spring Boot Participer à l’amélioration continue (code review, pair programming…) Contribuer à des déploiements continus, fiables et sécurisés Périmètre technique Frontend : React 19 Backend : Java 21+, Spring Boot 3+ , Architecture microservices, REST, Kafka DevOps & Cloud : Intégration continue sur GCP, Kubernetes, Docker Observabilité : Datadog Outils collaboratifs : Confluence, Slack, Jira
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
CDI

Offre d'emploi
Consultant.e Cloud GCP

Les Filles et les Garçons de la Tech
Publiée le
Cloud
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

55k-68k €
Paris, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un.e Consultant(e) Cloud GCP pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir des architectures Cloud GCP hybrides et sécurisées (Cloud / on-premise, réseau, IAM) Déployer et opérer des plateformes Kubernetes sur GKE dans des environnements critiques et multi-environnements Industrialiser les infrastructures Cloud via l’Infrastructure as Code et des standards de déploiement Intégrer des services data et IA sur GCP dans des architectures Cloud Native Optimiser performance, sécurité et coûts sur des plateformes Cloud complexes

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

371 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous