Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 372 résultats.
Freelance

Mission freelance
Cloud Sec Ops Engineer

Cherry Pick
Publiée le
CI/CD
Google Cloud Platform (GCP)
Terraform

12 mois
570-620 €
Paris, France
Objectifs et livrables Vous excellerez et vous épanouirez dans cette mission si vous êtes prêt à... Etre garant/leader des sujets sécurité du cloud : design, architecture, implémentation, durcissement, bonnes pratiques et reporting. Intervenir au niveau du socle et des cloud architect, pour prendre en charge et piloter les sujets sécurité Accompagner les différentes équipes consommatrices du Cloud sur leurs besoins et problématiques sécurité Définir et améliorer les standards de sécurité Cloud, participer aux démarches de conformité Automatiser les contrôles de sécurité (audits de configuration, alerting, monitoring, remédiation, reporting) Industrialiser les contrôles via IaC, pipelines CI/CD et outils DevSecOps Concevoir des outils et scripts pour renforcer les opérations SecOps. Exploiter des solutions variées et innovantes pour une visibilité et un contrôle continu des risques Cloud Analyser les risques de sécurité, identifier les impacts associés et proposer des plans d'actions adaptés et collaborer à leur mise en œuvre Participer activement à la gestion des incidents de sécurité liés Cloud Assurer la veille sur les nouvelles technos autour de la sécurité et du cloud computing Contribuer à l’intégration sécurisée de l’IA dans le SI Profil recherché : Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS)
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
DevOps Senior - Full remote H/F

Comet
Publiée le
Automatisation
AWS Cloud
Azure

1 an
400-530 €
France
Nous recherchons un(e) DevOps Senior pour une mission en 100% remote, au sein d’un projet innovant à fort impact dans le domaine du Green IT pour une mission de 4 jours par semaine sur 1 an. 🚀 Contexte Vous interviendrez sur une plateforme technologique visant à optimiser et réduire l’empreinte environnementale des infrastructures IT , en vous appuyant sur des mesures dynamiques et des logiques d’optimisation avancées (GreenOps / FinOps). 🛠️ Missions principales Architecture & Infrastructure Concevoir et faire évoluer l’infrastructure cloud Déployer et maintenir des environnements robustes et scalables Appliquer les bonnes pratiques DevOps (CI/CD, IaC) Exploitation & Fiabilité Garantir la disponibilité, la performance et la sécurité Mettre en place des outils d’observabilité (logs, monitoring, alerting) Gérer les incidents et améliorer la résilience des systèmes Produit & GreenOps Contribuer à une plateforme orientée optimisation des ressources IT Challenger les choix techniques avec une vision ops / usage réel Participer à des problématiques FinOps, automatisation et performance Collaboration & Support Travailler étroitement avec les équipes produit et tech Documenter l’infrastructure et les bonnes pratiques Accompagner les déploiements chez les clients (y compris on-premise) 🧰 Stack technique Cloud : AWS (principal), Azure CI/CD : GitLab Containers : Kubernetes IaC : Terraform, Terragrunt Packaging : Helm Observabilité : CloudWatch, Elastic Data : PostgreSQL, DuckDB, MongoDB Langages : Python, Java
Freelance

Mission freelance
SRE EXPERT

HAYS France
Publiée le
Bash
Datadog
Google Cloud Platform (GCP)

3 ans
100-460 £GB
Lille, Hauts-de-France
Site Reliability Engineer (SRE) Transverse - Plateforme CCDP Au sein de la Customer & Commerce Digital Platform (CCDP), vous interviendrez en tant que Site Reliability Engineer (SRE) Transverse. Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
Freelance

Mission freelance
Développeur Fullstack & MLOps (PHP Laravel / React / IA Integration)

HAYS France
Publiée le
Azure
Docker
Google Cloud Platform (GCP)

3 ans
100-400 €
Strasbourg, Grand Est
Votre mission Votre rôle est crucial : rendre l’IA réellement actionnable en production . Vous intervenez sur toute la chaîne applicative, du backend à l’interface utilisateur, en intégrant des modèles d’IA (LLM, multimodaux…) dans des produits concrets et utilisés. Vos responsabilités principales : Concevoir et développer des applications fullstack robustes et scalables Intégrer des modèles d’IA (LLM, vision, texte, multimodal) dans des workflows applicatifs réels Exposer et consommer des API IA de manière performante et sécurisée Travailler sur la mise en production des modèles et leur exploitation (MLOps) Collaborer avec les équipes Data, Produit et UX pour transformer les cas d’usage IA en fonctionnalités utilisateurs Garantir la qualité, la maintenabilité et la performance des applications
Freelance

Mission freelance
Tech Lead Cloud

ALLEGIS GROUP
Publiée le
Google Cloud Platform (GCP)
S3NS
Terraform

10 mois
Paris, France
Le Tech Lead Cloud intervient en tant que référent technique et chef d’orchestre de la mise en place des landing zones sur GCP et S3NS. Il est garant des choix d’architecture, de leur mise en œuvre opérationnelle et de leur alignement avec les exigences de sécurité, de conformité et de gouvernance. Missions principales1. Cadrage et conception des landing zones Définir et formaliser les architectures cibles des landing zones GCP et S3NS. Concevoir les modèles d’organisation Cloud : Comptes / projets Réseaux Gestion des identités et des accès (IAM / RBAC) Politiques de gouvernance Intégrer les exigences de la doctrine Cloud , les contraintes réglementaires et les standards de cybersécurité . Identifier et documenter les patterns de déploiement , de gouvernance et de supervision. 2. Mise en œuvre technique et industrialisation Concevoir, automatiser et industrialiser les landing zones à l’aide de Terraform ou d’outils équivalents d’Infrastructure as Code (IaC). Mettre en place les fondations Cloud, notamment : Gestion des identités et des accès (IAM / RBAC) Réseau : segmentation, interconnexions, sécurisation des flux Journaux, monitoring, alerting et observabilité Catalogue de services Cloud autorisés Sécurisation des environnements (CSPM, KMS, conformité) Définir et déployer les pipelines CI/CD associés aux landing zones. 3. Gouvernance, sécurité et conformité Définir les patterns d’accostage des projets et les bonnes pratiques d’usage des environnements Cloud. Mettre en place des contrôles automatisés de sécurité, de conformité et de gouvernance (policies as code). Travailler en étroite collaboration avec les équipes cybersécurité et architecture afin de garantir l’alignement des solutions. 4. Support à l’embarquement des projets Accompagner les équipes applicatives dans l’adoption des nouveaux environnements Cloud. Analyser les besoins des projets et faire évoluer les landing zones de manière continue. Contribuer à la documentation , aux supports de formation et à la montée en maturité Cloud des équipes internes. 5. Coordination et communication Collaborer étroitement avec les équipes du programme de transformation Cloud. Présenter les choix d’architecture, les solutions mises en œuvre, les feuilles de route et les arbitrages techniques. Participer aux instances et cérémonies projets et contribuer activement au pilotage.
Offre premium
CDI
CDD
Freelance

Offre d'emploi
Data Analyst Monétique

Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Freelance

Mission freelance
Devops - Lille

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Datadog
Github

1 an
300-450 €
Lille, Hauts-de-France
Tu intégreras l’équipe Ops de la Digital Unit. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Ta mission dans un premier temps sera d’assurer la bonne santé d’un groupe d’applications défini avant de travailler à leur migration et à cible à travailler de manière mutualisée sur tous les projets de la Digital Unit. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
CDI
Freelance

Offre d'emploi
Développeur Python DevOps GCP (H/F)

STORM GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Jenkins

3 ans
50k-54k €
400-420 €
Île-de-France, France
Contexte : Nous recherchons un/une développeur/développeuse Python DevOps GCP pour renforcer nos équipes. Missions : Vous serez amené(e) à réaliser les tâches suivantes : La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Participer à des projets avec de fortes contraintes techniques, de sécurité et de performances.
Freelance

Mission freelance
ALSL - ML Ingénieur

Pickmeup
Publiée le
Flask
Google Cloud Platform (GCP)
MySQL

3 mois
400-500 €
Paris, France
Nous recherchons un ML Ingénieur pour intégrer une équipe dédiée à la personnalisation de l’expérience utilisateur . La mission consiste à concevoir, déployer et industrialiser des modèles de machine learning, du traitement des données à l’exposition via des API, avec un suivi et un contrôle des performances en production. Le rôle inclut également la documentation, la mise en place de pipelines CI/CD et la collaboration avec les équipes data et produit. Ce qu’on ne recherche pas : Profils n’ayant jamais déployé de modèles ML en production Candidats sans expérience Google Cloud Platform ou CI/CD Développeurs uniquement back-end sans expérience ML Personnes n'ayant pas de communication dans un contexte d’équipe
CDI
CDD

Offre d'emploi
Data Analyst - Bordeaux

OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL

9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance
CDI

Offre d'emploi
Senior Looker / LookML Developer

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
CDI

Offre d'emploi
SOLUTION ARCHITECT SPECIALIST SENIOR AWS/GCP

SCC France SAS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

Nanterre, Île-de-France
Architecture & Avant-vente • Concevoir et valider l'architecture technique sur des dossiers stratégiques (appels d'offres, comptes clés) • Préconiser des choix techniques adaptés aux enjeux clients, en s'appuyant sur les catalogues AWS et Google Cloud • Définir les prestations selon les abaques internes et produire les livrables d’avant-vente (chiffrages, HLD/LLD, livrables techniques) • Accompagner les équipes commerciales en soutenance client et participer aux comités techniques • Construire des architectures de référence réutilisables (Landing Zone, sécurité, FinOps, migration) Développement des offres de services • Contribuer à la construction et à la promotion des offres de services autour d’AWS et Google Cloud : – Managed Services, Cloud Operations (C&SM) – Migration & Modernisation applicative – Data, IA/ML, Analytics sur cloud public – Sécurité cloud (CSPM, Zero Trust, conformité) – FinOps et optimisation des coûts cloud • Collaborer avec les équipes Alliance (AWS, Google Cloud) pour valoriser les programmes partenaires (funding, co-sell, MDF) • Participer à la création de contenus commerciaux : fiches offres, battle cards, références clients Enablement & expertise interne • Diffuser son expertise technique auprès des forces commerciales (SA, SAS, Account Managers) via réunions, formations et supports à la vente • Être le référent technique cloud public au sein des équipes : point d'escalade sur les sujets AWS et Google Cloud • Mentorer les architectes juniors et seniors sur les bonnes pratiques cloud Conseil & missions clients • Mener des missions de conseil (audits d'architecture, études de faisabilité, cloud strategy workshops) • Animer des workshops de discovery et de design thinking avec les équipes techniques clients (CTO, architectes, DSI) ACTIVITÉS SECONDAIRES • Participer et intervenir lors de séminaires, webinaires et événements partenaires (re:Invent, Google Cloud Next…) • Analyser l'impact des nouvelles solutions cloud dans les systèmes d'information clients • Assurer un reporting régulier sur les opportunités et les activités d'avant-vente • Assurer une veille technologique active sur les évolutions AWS, Google Cloud et le marché cloud • Contribuer à la pratique Cloud (retours d’expérience, documentation, standards)
Freelance

Mission freelance
Chef de Projet Data (F/H)

CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)

12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
CDI

Offre d'emploi
Data Engineer GCP

K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)

48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

372 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous