Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 417 résultats.
Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
CDI
Freelance

Offre d'emploi
Ingénieur DevOps GCP RUN & Automatisation H/F

Le Groupe SYD
Publiée le
CI/CD
Powershell

12 mois
48k €
480 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps GCP RUN & Automatisation H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur de la distribution / retail , engagé dans la modernisation, la fiabilisation et l’uniformisation de ses environnements applicatifs. Tu interviens au sein d’un écosystème hybride mêlant infrastructures legacy Windows , plateformes on‑premises , environnements GCP , et un parc national de magasins en production avec de forts enjeux de disponibilité. Aux côtés du Lead DevOps déjà en place, tu renforces l’équipe sur la partie RUN , la maintenance, l'amélioration continue et la mise sous contrôle des plateformes existantes, tout en participant aux chantiers d’automatisation et de modernisation. Tu auras pour missions de : Assurer le RUN , la maintenance et la fiabilisation des plateformes applicatives Windows existantes (legacy & production magasins). Mettre à jour, maintenir et optimiser les bases SQL Server utilisées en production et en salle de recette. Gérer les déploiements de packages applicatifs Windows sur les environnements distribués. Automatiser les opérations récurrentes et contribuer à la montée en maturité DevOps. Intervenir sur des environnements GCP , participer aux déploiements et aux évolutions cloud. Participer à la résolution d’incidents, à l’analyse des problématiques et à la continuité de service. Travailler en étroite collaboration avec le Lead DevOps pour assurer la cohérence globale des pipelines et des bonnes pratiques. 🧰 Stack technique : OS & Infra : Windows Server, environnements legacy, production magasins, virtualisation. Databases : SQL Server. CI/CD & Automatisation : PowerShell, scripts d’automatisation, pipelines CI/CD. Cloud : GCP (Compute, CI/CD Cloud, services managés). Autres environnements : plateformes hybrides (on‑prem / cloud), environnements distribués multipoints, salles de recette & production.
Freelance

Mission freelance
ARCHITECT DATA / URBANISTE

HAYS France
Publiée le
API
BI
Data governance

1 mois
Grand Est, France
Dans le cadre d’un renfort sur ses projets de transformation digitale, notre client recherche un(e) Architecte Data / Urbaniste afin d’intervenir sur un périmètre stratégique lié à l’évolution de son architecture d’entreprise. Vous serez chargé(e) d’évaluer l’architecture data existante, d’identifier les axes d’amélioration et de proposer une vision cible permettant d’optimiser la qualité, la structuration et la valorisation du gisement de données. Votre rôle consistera notamment à analyser les sources actuelles, proposer l’intégration de nouvelles données, améliorer les mécanismes de gouvernance et contribuer à la valorisation des données pour les usages BI, API, reporting et datamesh. Vous interviendrez également sur la mise en place, la gestion et la structuration des métadonnées pour préparer des cas d’usage orientés intelligence artificielle. En lien direct avec les équipes data, techniques et métiers, vous contribuerez aux orientations d’urbanisation du SI et à la cohérence globale de la plateforme data, tout en apportant vos recommandations pour soutenir les enjeux de scalabilité et de performance. Rythme 80% TT possible.
Freelance

Mission freelance
DEVELOPPEUR JAVA

Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Java
Kubernetes

6 mois
300-400 €
Lille, Hauts-de-France
🔎 Analyse & Conception Contribution aux spécifications générales Analyse technique détaillée Prototypage Paramétrage des composants applicatifs 💻 Développement Développement de microservices et composants back-end Assemblage et intégration dans l’écosystème interne Mise à jour de l’interopérabilité vers des architectures événementielles Rédaction de documentation technique ✅ Tests & Qualité Conception et exécution des tests unitaires et d’intégration Identification et correction des anomalies Garantie de la performance et de la non-régression 🔧 Maintenance Maintenance corrective et évolutive Gestion des composants réutilisables
CDI

Offre d'emploi
Business Analyst & QA - Domaine Encaissement.

KUBE Partners S.L. / Pixie Services
Publiée le
.NET
Google Cloud Platform (GCP)
JIRA

30k-48k €
Nord, France
Objectif global : Assurer le Build, le Test et le Run de la solution d'encaissement magasins. Contrainte forte du projet : Contexte Retail Omnicanal, équipe Agile. Les livrables sont : Spécifications fonctionnelles et études d'impacts. Cahiers de recette et exécution des tests. Suivi de production et analyse d'incidents. Compétences techniques : SQL - Confirmé - Impératif Jira / Xray - Confirmé - Impératif (Solution d'encaissement) - Confirmé - Important GCP / MongoDB - Junior - Souhaitable Connaissances linguistiques : Anglais Technique ( Apprécié ) CONTEXTE DE LA MISSION Au sein de l'équipe Front Office Magasin (constituée de 12 personnes organisées en mode Agile), vous intervenez sur le périmètre stratégique de l'encaissement. L'équipe est en charge de l'outil d'encaissement de tous les magasins physiques de l'enseigne et de la diffusion des ventes aux différents systèmes d'information. Les sujets concerneront l'ensemble des périmètres autour de l'encaissement et du référentiel des ventes. STRUCTURE DE LA MISSION 40% : BUILD (Gestion de projet & Analyse) Accompagner les équipes métiers dans leurs besoins d'évolutions. Cadrer les besoins métiers et réaliser les études d'impacts. Rédiger les spécifications fonctionnelles. Suivre les actions des autres équipes IT dans le cadre des projets transverses. Suivre les développements et la qualification au sein de l'équipe. Assurer la qualité des livrables et la mise en place de la recette transverse. Suivre les demandes de mise en production. 40% : TESTS (Qualification) Tester les livraisons des versions et hotfixes de l'outil d'encaissement (), du référentiel des ventes et d'autres évolutions du périmètre. 20% : RUN (Maintien en Condition Opérationnelle) Analyse et traitement d'incidents et de problèmes de production (corrections applicatives, gestion des reprises de données). Rétro-analyses ponctuelles via requêtage (SQL).
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance
CDI

Offre d'emploi
Développeur fullstack Java Vue

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Freelance

Mission freelance
Lead Cloud Engineer

Keypeople Consulting
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
400-500 €
Île-de-France, France
Nous cherchons un(e) Lead Cloud Engineer – Environnement Cloud & Infrastructures Critiques | 🌍 Environnement international | 💼 +10 ans d’expérience Dans le cadre du renforcement d’une équipe stratégique spécialisée dans les infrastructures digitales critiques, nous recherchons un(e) Lead Cloud Engineer expérimenté(e) pour intervenir sur des environnements Cloud complexes et hautement disponibles. Votre mission : Concevoir, déployer et maintenir des infrastructures cloud résilientes, scalables et performantes, tout en collaborant étroitement avec les équipes de développement, d’exploitation et les partenaires technologiques. Environnement technique : VMware | AWS | Azure | Google Cloud Platform (GCP) 🔎 Vos responsabilités principales : · Piloter le cycle de vie complet des services (design, déploiement, exploitation, optimisation) · Participer à la conception des architectures et à la planification de capacité · Garantir la disponibilité, la performance et la fiabilité des environnements critiques · Mettre en place des solutions d’automatisation pour prévenir les incidents · Superviser et améliorer les processus de gestion des incidents · Contribuer au développement de code optimisé pour les plateformes et solutions · Encadrer et accompagner les équipes sur les bonnes pratiques Cloud & SRE · Promouvoir des évolutions techniques renforçant la robustesse et la vélocité des systèmes Profil recherché : · +10 ans d’expérience en ingénierie Cloud / Infrastructure · Expertise confirmée sur VMware, AWS, Azure et GCP · Expérience en environnements critiques (idéalement secteur financier ou grande entreprise internationale) · Leadership technique et capacité à travailler en transverse · Anglais courant indispensable (évalué en entretien) 📩 Si vous êtes intéressé(e) ou si vous connaissez une personne susceptible de l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
CDI

Offre d'emploi
Fiche de poste — Ingénieur AppSec / DevSecOps (H/F)

CAT-AMANIA
Publiée le
Azure
DevSecOps
Google Cloud Platform (GCP)

Levallois-Perret, Île-de-France
Dans le cadre du renforcement de notre démarche Security by Design et de l’industrialisation de nos pratiques DevSecOps, nous recherchons un Ingénieur AppSec / DevSecOps capable d’intégrer la sécurité au cœur du cycle de développement logiciel. Vous interviendrez auprès d’équipes produits et projets pour : · réduire la surface d’attaque applicative · automatiser les contrôles de sécurité · accompagner les développeurs · garantir la conformité aux standards (OWASP, ANSSI, ISO 27001…)
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Senior Google Workspace, Data & IA

OPTIPARK
Publiée le
BigQuery
Google Cloud Platform (GCP)
Google Sheets

1 an
100-470 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un programme stratégique de transformation digitale, nous recherchons un Expert Senior Google Workspace / Data & IA capable d’assurer l’interface entre l’expertise technique et les enjeux métiers. Il s’agit d’un rôle hybride à forte valeur ajoutée, combinant : Administration avancée de l’environnement Google Workspace Exploitation et analyse des données d’usage (BigQuery / Looker) Développement de solutions d’automatisation (AppSheet / Apps Script) Pilotage et diffusion des usages IA (Gemini, adoption, innovation) Accompagnement des directions métiers dans la transformation numérique Vos missions 🔹 Volet Data & Analytics Concevoir et maintenir des modèles LookML complexes Développer des dashboards stratégiques (adoption, performance, indicateurs RSE) Exploiter les données via BigQuery (SQL avancé) Structurer les tables et optimiser les coûts de calcul et stockage Définir des indicateurs liés à la sobriété numérique et à la qualité de vie au travail 🔹 Volet IA Générative & Innovation Contribuer à la structuration d’un Centre d’Expertise IA Être référent technique et fonctionnel sur les solutions IA (Gemini) Animer une communauté d’ambassadeurs IA Identifier et déployer des cas d’usage métiers à forte valeur ajoutée Concevoir supports de formation et référentiels de prompts 🔹 Volet Google Workspace (Technique & Fonctionnel) Administrer et sécuriser l’environnement Google Workspace (DLP, Context-Aware Access) Développer des applications métiers via AppSheet Créer des automatisations via Google Apps Script Accompagner la migration d’Excel/VBA vers Google Sheets / BigQuery Assister le Product Owner dans la roadmap, les User Stories et la conduite du changement
Freelance
CDI

Offre d'emploi
Développeur fullstack (+front que back)

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - HTML, CSS, Javascript, Java 11+, SpringBoot, Vue JS, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Freelance

Mission freelance
Architecte technique

CAT-AMANIA
Publiée le
DevOps
Google Cloud Platform (GCP)

1 an
100-450 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de l’équipe Core Techs, vous intervenez comme architecte cloud et platform engineer au service des équipes de développement de la direction. Votre rôle consiste à concevoir, mettre en œuvre et maintenir des architectures cloud robustes, sécurisées et scalables sur Google Cloud Platform, en vous appuyant sur des environnements Cloud Run et Kubernetes. Vous accompagnez les équipes produits dans leurs choix d’architecture et vous assurez de la cohérence globale du SI cloud. Vous contribuez activement à la dev platform mise à disposition des équipes, en concevant et en maintenant des briques transverses permettant l’adoption fluide des pratiques DevOps : - chaînes CI/CD industrialisées, - Infrastructure as Code (Terraform, équivalent), - déploiement continu basé sur des approches GitOps, - gestion sécurisée des secrets, - observabilité (logs, métriques, traces), - gestion des images de conteneurs, charts Helm et dépôts binaires. Vous êtes garant de la qualité, de la sécurité et de l’industrialisation des solutions proposées, avec une forte exigence sur l’automatisation, la standardisation et la résilience. Vous privilégiez systématiquement des outils open source, en évaluant leur pertinence, leur maintenabilité et leur intégration dans l’écosystème existant. Enfin, vous jouez un rôle clé de référent technique et de facilitateur : documentation des patterns, partage de bonnes pratiques, accompagnement des équipes et contribution à l’amélioration continue des standards d’architecture cloud et de delivery.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
Développeur Fullstack Java / VueJS H/F

HAYS France
Publiée le
Google Cloud Platform (GCP)
IA Générative
Java

10 mois
350-450 €
Lille, Hauts-de-France
Dans le cadre d’un projet stratégique de transformation digitale, notre client, groupe international du secteur retail, recherche un Développeur Fullstack Java / VueJS pour renforcer une feature team dédiée à la création d’un générateur de configurateurs produit à destination de plusieurs enseignes. Vous interviendrez sur des produits digitaux à fort impact, dans un environnement agile et international. Vos missions : Analyser les besoins fonctionnels et participer aux choix techniques Développer et maintenir des applications front (VueJS) et back (Java) Intervenir en BUILD & RUN sur des API et applications web Garantir la qualité du code (tests unitaires, documentation, code reviews) Collaborer avec les équipes produit, OPS et équipes transverses Mettre en place des actions d’observabilité Intégrer des fonctionnalités basées sur l’ IA générative Prendre en charge des sujets en autonomie
CDI

Offre d'emploi
Full-Stack Engineer - Data Plateform - Aix-en-Provence (H/F)

EASY PARTNER
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js

50k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste Dans le cadre du renforcement d’une équipe Data & Engineering, notre client final recrute un Développeur Full-Stack confirmé en CDI. Le poste s’inscrit dans l’évolution d’une application interne critique de gestion d’actifs. Cette plateforme constitue la source unique de vérité pour la gestion des actifs physiques, supportant directement les processus opérationnels, commerciaux et financiers du groupe. L’environnement est international, multiculturel et fortement orienté data-driven decision making . Missions principales Concevoir, développer et maintenir les fonctionnalités full-stack de l’application métier Optimiser la performance et la scalabilité du back-end (API, cache, base de données) Garantir la qualité, la fiabilité et l’intégrité des données Implémenter des fonctionnalités métier stratégiques (prévisions, transferts, modifications d’actifs, etc.) Développer et maintenir les API permettant l’interconnexion avec les systèmes tiers et plateformes cloud Traduire les besoins métier en spécifications techniques exploitables Améliorer en continu l’expérience utilisateur des outils internes Missions secondaires Participer au maintien en conditions opérationnelles de la plateforme (RUN) Identifier, analyser et corriger les anomalies complexes Gérer et réduire la dette technique Maintenir la stack technologique à jour Participer activement aux code reviews et aux standards qualité Contribuer à la documentation technique Collaborer étroitement avec les équipes métier, data et produit Participer aux cérémonies Agile Stack technique Front / Full-Stack Nuxt.js Vue.js TypeScript JavaScript ES6+ HTML5 / CSS3 / Sass / Less Back / Data Node.js (via Nuxt API) MongoDB Atlas (NoSQL) Redis (cache) Cloud / DevOps Cloud PaaS / IaaS (Clever Cloud, GCP ou équivalent) Git Docker (apprécié)

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

417 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous