Find your next tech and IT Job or contract Google Cloud Platform (GCP)

What you need to know about Google Cloud Platform (GCP)

Google Cloud Platform (GCP) is a suite of cloud computing services offered by Google, enabling businesses and developers to build, deploy, and scale applications, websites, and services using the same infrastructure that Google uses for its own products, such as search or Gmail. GCP offers an extensive range of products and services, including computing solutions with Compute Engine for virtual machines, App Engine for application deployment, and Google Kubernetes Engine for container orchestration. In the storage and database domain, GCP offers tools like Cloud Storage for object storage, Cloud SQL for relational databases, and BigQuery for large-scale data analysis. For networking, services such as Virtual Private Cloud (VPC), Cloud Load Balancing, and Cloud CDN help optimize performance and content distribution. For artificial intelligence and machine learning, GCP offers Vertex AI for learning model development, as well as pre-trained APIs for visual recognition, language processing, and speech synthesis. Finally, GCP includes management and development tools such as Cloud Deployment Manager for resource deployment, and Cloud Console for service management. Thanks to its global infrastructure, GCP provides high performance, flexible scalability, and advanced security solutions, helping businesses innovate and succeed in their digital transformation.

Your search returns 214 results.
Contractor
Permanent

Job Vacancy
Ingénieur DataOps / Ops GCP – Confirmé

Published on
Google Cloud Platform (GCP)

3 years
40k-60k €
440-510 €
Ile-de-France, France
Hybrid
Localisation : IDF – 4 jours sur site Démarrage : Mi-janvier Durée : Longue mission TJM : 450–500 € Contexte Grand compte du secteur Data / Big Data / BI / RH. Renforcement de l’équipe GCP pour soutenir une forte activité projet. Intégration au sein du pôle Production Back Office. Missions Exploitation et mises en production des projets sur Google Cloud Platform Diagnostic, résolution d’incidents, optimisation de la qualité de service Mise en place et suivi des plans d’action (SLA, performance, sécurité) Contribution à l’industrialisation : Terraform, GitOps, CI/CD Participation aux projets techniques et métiers (mise en place d’environnements, automatisation) Collaboration avec les Architectes, Infra et Études Stack & Environnement GCP , Terraform, Ansible Git, GitFlow, GitOps GitLab CI/CD Cloud Composer, Cloud Functions, Cloud Run, Cloud SQL, BigQuery Python Candidature Envoyez votre CV + disponibilité Ajoutez moi sur linkedIn Simon ELGHOZI - SooIT
Contractor

Contractor job
DATA ARCHITECTE GCP

Published on
Google Cloud Platform (GCP)

3 months
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Contractor

Contractor job
Expert Celonis

Published on
Google Cloud Platform (GCP)

12 months
600-680 €
Clichy, Ile-de-France
Hybrid
Nous recherchons un expert Celonis expérimenté afin de soutenir un projet de migration à grande échelle, dans un contexte international. L’objectif principal est de migrer des sources de données SAP existantes vers Google Cloud Platform (GCP) tout en assurant la continuité opérationnelle et des performances optimales de notre environnement Celonis. Le ou la consultant(e) retenu(e) devra être à l’aise en anglais et habitué(e) à travailler avec des équipes réparties sur plusieurs pays. Périmètre de la mission Piloter et exécuter la migration des sources de données Celonis depuis les systèmes SAP vers GCP, en gérant la cartographie, l’extraction, la transformation et le chargement (ETL). Gérer l’exploitation courante de la plateforme Celonis, en garantissant sa stabilité, ses performances et sa disponibilité dans un environnement international à forte volumétrie. Concevoir, développer et maintenir des modèles de process mining et des tableaux de bord pour fournir des analyses exploitables aux parties prenantes. Valider et assurer la qualité, l’intégrité et la sécurité des données pendant la migration et en run. Collaborer avec les équipes transverses (IT, propriétaires de processus métier, data engineers) pour définir les besoins, traduire les exigences fonctionnelles en solutions techniques, et veiller à l’alignement avec les objectifs du projet. Former et assister les utilisateurs afin de favoriser l’adoption et l’utilisation efficace de Celonis par les équipes globales. Identifier les opportunités d’amélioration des processus grâce aux analyses Celonis et recommander des stratégies d’optimisation. Profil recherché Minimum de 5 ans d’expérience avec Celonis dans des contextes internationaux, dont au moins un projet de migration majeur (idéalement SAP vers GCP ou équivalent). Expertise avérée en process mining, modélisation de données et ETL spécifiques à Celonis. Expérience concrète de SAP et GCP (ou plateformes cloud comparables) et bonne connaissance des pipelines de données à grande échelle. Maîtrise de l’anglais , à l’oral comme à l’écrit ; la connaissance d’autres langues est un plus. Diplôme de niveau Bac+5 en Informatique, Data Engineering, Systèmes d’Information ou domaine similaire. Forte capacité d’analyse et aptitude à interpréter des jeux de données complexes pour fournir des recommandations claires. Excellentes compétences en communication et en collaboration, avec une expérience confirmée dans des équipes transverses et internationales. Modalités de soumission Les consultants ou cabinets intéressés sont invités à fournir : Un résumé de votre expérience pertinente, mettant en avant les projets de migration comparables. Les détails de votre méthodologie et de votre approche pour la migration SAP vers GCP et la gestion de l’exploitation. Les CV des personnes clés impliquées, y compris leurs certifications et références. Un calendrier prévisionnel et une proposition de tarification.
Contractor

Contractor job
data analyst GCP

Published on
BigQuery
Google Cloud Platform (GCP)

3 months
100-400 €
Lille, Hauts-de-France
Hybrid
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Contractor
Permanent

Job Vacancy
Ingénieur CloudOps / DevOps GCP – RUN, Incidents

Published on
Google Cloud Platform (GCP)
Terraform

2 years
Paris, France
Responsabilités principales 1. Gestion des demandes et changements Traiter les demandes techniques, modifications d’infrastructure, évolutions de configuration. Enregistrer, analyser et planifier les changements en respectant les standards opérationnels. Rédiger comptes-rendus, documenter les opérations, produire les REX. 2. Gestion des incidents Diagnostiquer, résoudre et documenter les incidents sur le périmètre GCP. Analyser les causes racines et proposer des actions correctives. Gérer les escalades techniques et la communication vers les parties prenantes. 3. Supervision et intégration opérationnelle Configurer et maintenir alertes, métriques, logs (Cloud Monitoring, Logging, Dynatrace). Intégrer les nouveaux composants dans les systèmes de supervision, sécurité et journalisation. S’assurer que chaque brique est correctement surveillée et conforme aux référentiels internes. 4. Documentation opérationnelle Maintenir DEX, fiches réflexe, procédures incident/change. Garantir la qualité, l’exhaustivité et la mise à jour des documents d’exploitation. 5. Amélioration continue Identifier les optimisations possibles dans les processus RUN. Contribuer à la fiabilisation et l’industrialisation des opérations.
Contractor
Permanent

Job Vacancy
Architecte Cloud GCP & DevOps

Published on
Google Cloud Platform (GCP)
Terraform

2 years
Paris, France
Hybrid
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Contractor
Permanent

Job Vacancy
Consultant GCP - Accompagnement Cloud

Published on
Agile Method
Google Cloud Platform (GCP)

2 years
Paris, France
Hybrid
Responsabilités principales 1. Accompagnement des projets dans GCP Faciliter l’adoption du cloud par les équipes projets. Aider les équipes à structurer leurs besoins techniques et fonctionnels pour l’intégration dans la LZ. S’assurer de la bonne préparation de leurs environnements et prérequis. 2. Animation & coordination Animer les réunions d’avancement, ateliers de cadrage, résolutions de blocages. Synchroniser les parties prenantes techniques et métiers. Prioriser les actions et organiser les chantiers. 3. Suivi opérationnel et pilotage Suivre les actions, dépendances, blocages, ordonnancement, charges. Maintenir un tableau de bord projet clair, à jour, structuré. Assurer une visibilité transverse sur les risques et points ouverts. 4. Support technique Participer aux ateliers techniques, clarifier les solutions possibles, orienter les choix. S’assurer que les projets respectent les standards sécurité, réseau, IAM, supervision. 5. Amélioration continue Produire bilans, synthèses d’itération, plans d’amélioration. Capitaliser sur les retours d’expérience.
Contractor

Contractor job
Devops AWS / GCP

Published on
AWS Cloud
Google Cloud Platform (GCP)

12 months
370-600 €
Ile-de-France, France
Hybrid
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Contractor

Contractor job
Data Scientist Senior

Published on
Google Cloud Platform (GCP)
Python
SQL

12 months
Paris, France
Hybrid
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Contractor
Permanent

Job Vacancy
Administrateur de bases de données H/F

Published on
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 year
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Contractor

Contractor job
Senior Data Engineer

Published on
Google Cloud Platform (GCP)
Python
Terraform

210 days
Paris, France
Hybrid
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Permanent
Contractor
Fixed term

Job Vacancy
ML Ops

Published on
BigQuery
Google Cloud Platform (GCP)
MLOps

12 months
40k-59k €
400-600 €
Lille, Hauts-de-France
Hybrid
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Permanent
Contractor

Job Vacancy
Data Engineer H/F

Published on
AWS Cloud
Google Cloud Platform (GCP)

6 months
Rouen, Normandy
Hybrid
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Contractor

Contractor job
Data Scientist Confirmé / sénior - Temps plein

Published on
BigQuery
Google Cloud Platform (GCP)

6 months
Paris, France
Hybrid
Nous recherchons un·e Data Scientist confirmé·e / senior pour rejoindre une squad Supply Chain composée de 5 Data Scientists. L’objectif est de capitaliser sur des solutions IA déjà existantes et d’étendre leur périmètre afin de répondre à de nouveaux enjeux métiers. Missions principales 💡 Collection Structure & Assortment Concevoir des outils d’analyse avancée et/ou de simulation pour évaluer l’assortiment actuel (showroom, catalogue). Déterminer des quantités d’achat optimales permettant de couvrir les besoins du marché et d’atteindre les objectifs de ventes. 📉 Depletion Path Développer des modèles d’analyse pour identifier les produits à retirer progressivement de l’assortiment retail et définir les canaux de sortie adéquats. Analyser l’historique des assortiments afin de démontrer la possibilité de générer un revenu similaire avec un nombre réduit de références (SKUs). 🔀 Stock Rebalancing Concevoir des approches algorithmiques permettant de relocaliser les stocks sous-performants vers des points de vente à fort potentiel de vente. Responsabilités Explorer, analyser et modéliser des données complexes à fort volume. Construire des pipelines de données robustes et industrialisés. Améliorer et enrichir les briques IA existantes afin de traiter de nouveaux cas d’usage. Interagir avec les équipes métiers pour comprendre les enjeux opérationnels et proposer des solutions pragmatiques. Documenter et partager les résultats de manière claire, structurée et pédagogique.
Contractor
Permanent

Job Vacancy
Architecte Cloud (H-F)

Published on
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 months
60k-70k €
500-660 €
Ile-de-France, France
Hybrid
Nous recherchons un Architecte Cloud pour l’un de nos clients, dans le cadre d’un projet de transformation technologique. La mission se déroule au sein d’une équipe d’experts déjà constituée et contribue à l’évolution d’un environnement Cloud public et hybride. Ce poste est proposé en pré-embauche : 6 mois en prestation freelance, suivie d’une internalisation au sein de l’entreprise. Missions principales : Concevoir, optimiser et sécuriser des architectures Cloud sur des plateformes publiques. Définir les standards techniques et challenger les orientations d’architecture. Contribuer à la mise en place d’environnements hybrides intégrant des infrastructures existantes. Accompagner les équipes dans la montée en compétences et l’adoption des bonnes pratiques Cloud. Participer à l’amélioration continue des modèles et référentiels d’architecture.
Contractor

Contractor job
Senior Data Engineer GCP (H/F)

Published on
Google Cloud Platform (GCP)

12 months
550 €
Paris, France
Hybrid
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.

Contract roles and jobs for Google Cloud Platform (GCP)

DevOps Engineer (Cloud)

The DevOps Engineer (Cloud) uses Google Cloud Platform to automate deployment, infrastructure management, and optimize development processes in Cloud environments.

Cloud Architect

The Cloud Architect designs infrastructure and architecture solutions on Google Cloud Platform, ensuring applications are secure, scalable, and optimized for the Cloud.

Systems & Networks Engineer

The Systems & Network Engineer manages resources and services on Google Cloud Platform, configuring and administering virtual machines, databases, and associated Cloud services.

Infrastructure and Production Manager

The Infrastructure and Production Manager supervises the management of Google Cloud Platform infrastructures, ensuring performance, security, and scalability, while ensuring smooth integration with other systems in the company.

214 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us