Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 100 résultats.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance
CDI

Offre d'emploi
Devops GCP Terraform

Pickmeup
Publiée le
Google Cloud Platform (GCP)

9 mois
60k-80k €
400-600 €
Paris, France
Notre client est un acteur du paiement digital opérant une plateforme cloud native à forte criticité (disponibilité, sécurité, volumétrie). Dans un contexte de structuration et de montée en charge, il renforce son équipe DevOps sur un environnement full GCP. Description du poste Vous intervenez sur la conception, l’industrialisation et l’exploitation de la plateforme cloud. Vos missions principales : Maintien et évolution de l’infrastructure sur GCP Automatisation via Terraform / Terragrunt Gestion et optimisation des environnements Kubernetes (GKE) Mise en place et amélioration des pipelines CI/CD Suivi de la performance et mise en place du monitoring (Datadog, Prometheus, Grafana) Contribution aux enjeux de sécurité et de fiabilité (SRE)
Freelance

Mission freelance
Cloud Sec Ops Engineer

Cherry Pick
Publiée le
CI/CD
Google Cloud Platform (GCP)
Terraform

12 mois
570-620 €
Paris, France
Objectifs et livrables Vous excellerez et vous épanouirez dans cette mission si vous êtes prêt à... Etre garant/leader des sujets sécurité du cloud : design, architecture, implémentation, durcissement, bonnes pratiques et reporting. Intervenir au niveau du socle et des cloud architect, pour prendre en charge et piloter les sujets sécurité Accompagner les différentes équipes consommatrices du Cloud sur leurs besoins et problématiques sécurité Définir et améliorer les standards de sécurité Cloud, participer aux démarches de conformité Automatiser les contrôles de sécurité (audits de configuration, alerting, monitoring, remédiation, reporting) Industrialiser les contrôles via IaC, pipelines CI/CD et outils DevSecOps Concevoir des outils et scripts pour renforcer les opérations SecOps. Exploiter des solutions variées et innovantes pour une visibilité et un contrôle continu des risques Cloud Analyser les risques de sécurité, identifier les impacts associés et proposer des plans d'actions adaptés et collaborer à leur mise en œuvre Participer activement à la gestion des incidents de sécurité liés Cloud Assurer la veille sur les nouvelles technos autour de la sécurité et du cloud computing Contribuer à l’intégration sécurisée de l’IA dans le SI Profil recherché : Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS)
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre premium
CDI
CDD
Freelance

Offre d'emploi
Data Analyst Monétique

Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Freelance

Mission freelance
Tech Lead Cloud

ALLEGIS GROUP
Publiée le
Google Cloud Platform (GCP)
S3NS
Terraform

10 mois
Paris, France
Le Tech Lead Cloud intervient en tant que référent technique et chef d’orchestre de la mise en place des landing zones sur GCP et S3NS. Il est garant des choix d’architecture, de leur mise en œuvre opérationnelle et de leur alignement avec les exigences de sécurité, de conformité et de gouvernance. Missions principales1. Cadrage et conception des landing zones Définir et formaliser les architectures cibles des landing zones GCP et S3NS. Concevoir les modèles d’organisation Cloud : Comptes / projets Réseaux Gestion des identités et des accès (IAM / RBAC) Politiques de gouvernance Intégrer les exigences de la doctrine Cloud , les contraintes réglementaires et les standards de cybersécurité . Identifier et documenter les patterns de déploiement , de gouvernance et de supervision. 2. Mise en œuvre technique et industrialisation Concevoir, automatiser et industrialiser les landing zones à l’aide de Terraform ou d’outils équivalents d’Infrastructure as Code (IaC). Mettre en place les fondations Cloud, notamment : Gestion des identités et des accès (IAM / RBAC) Réseau : segmentation, interconnexions, sécurisation des flux Journaux, monitoring, alerting et observabilité Catalogue de services Cloud autorisés Sécurisation des environnements (CSPM, KMS, conformité) Définir et déployer les pipelines CI/CD associés aux landing zones. 3. Gouvernance, sécurité et conformité Définir les patterns d’accostage des projets et les bonnes pratiques d’usage des environnements Cloud. Mettre en place des contrôles automatisés de sécurité, de conformité et de gouvernance (policies as code). Travailler en étroite collaboration avec les équipes cybersécurité et architecture afin de garantir l’alignement des solutions. 4. Support à l’embarquement des projets Accompagner les équipes applicatives dans l’adoption des nouveaux environnements Cloud. Analyser les besoins des projets et faire évoluer les landing zones de manière continue. Contribuer à la documentation , aux supports de formation et à la montée en maturité Cloud des équipes internes. 5. Coordination et communication Collaborer étroitement avec les équipes du programme de transformation Cloud. Présenter les choix d’architecture, les solutions mises en œuvre, les feuilles de route et les arbitrages techniques. Participer aux instances et cérémonies projets et contribuer activement au pilotage.
Freelance

Mission freelance
ALSL - ML Ingénieur

Pickmeup
Publiée le
Flask
Google Cloud Platform (GCP)
MySQL

3 mois
400-500 €
Paris, France
Nous recherchons un ML Ingénieur pour intégrer une équipe dédiée à la personnalisation de l’expérience utilisateur . La mission consiste à concevoir, déployer et industrialiser des modèles de machine learning, du traitement des données à l’exposition via des API, avec un suivi et un contrôle des performances en production. Le rôle inclut également la documentation, la mise en place de pipelines CI/CD et la collaboration avec les équipes data et produit. Ce qu’on ne recherche pas : Profils n’ayant jamais déployé de modèles ML en production Candidats sans expérience Google Cloud Platform ou CI/CD Développeurs uniquement back-end sans expérience ML Personnes n'ayant pas de communication dans un contexte d’équipe
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance

Mission freelance
Chef de Projet Data (F/H)

CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)

12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Freelance

Mission freelance
Expert Looker Core (BI & Big Data)

Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)

4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Freelance

Mission freelance
IT Data & Integration Manager

EBMC
Publiée le
Google Cloud Platform (GCP)

6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
CDI

Offre d'emploi
Tech Lead E-commerce Core Platform

ASENIUM
Publiée le
AWS Cloud
Back-end
CI/CD

70k-80k €
Paris, France
En tant que Tech Lead E-commerce Core Platform , vous définissez la vision technique, garantissez la qualité et la scalabilité des composants backend partagés (APIs, microservices, etc.). Vous collaborez avec : Le Head of Tech pour la gouvernance et la roadmap technique. Les équipes Produit, Frontend et Architecture pour aligner les solutions avec les ambitions e-commerce des Maisons. Responsabilités clés Concevoir et faire évoluer l’architecture backend (headless et SFCC). Maintenir et optimiser les composants SFCC existants. Définir les bonnes pratiques (développement, tests, sécurité). Superviser l’équipe Core Platform (revues de code, validation des PR). Documenter les intégrations et accompagner les équipes. Collaborer avec DevOps, SRE, Sécurité et Produit. Surveiller performance, fiabilité et réutilisabilité des composants. Environnement technique : Node.js, backends composables (Algolia, Contentful), OKTA, SFCC.
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
Freelance

Mission freelance
INGÉNIEUR CLOUD PLATFORM GCP : TERRAFORM, GCP

SKILL EXPERT
Publiée le
CI/CD
DAT
Docker

48 mois
650-700 €
Paris, France
Descriptif de la mission : Mission : Ingénieur Cloud Platform GCP Quel est le contexte ? L'entreprise fait évoluer continuellement son infrastructure Cloud pour supporter des volumes de transactions croissants et répondre aux exigences de sécurité bancaire. Le département Infrastructure gère des programmes stratégiques de migration et de modernisation (Containerisation, Serverless, IaC). L'entreprise recherche un Ingénieur Cloud GCP expert, capable de concevoir, déployer et maintenir des environnements hautement sécurisés tout en assurant un reporting technique précis auprès de la direction. COMPÉTENCES EXIGÉES TERRAFORM Confirmé GCP Confirmé KUBERNETES Confirmé GOOGLE CLOUD PLATFORM Confirmé
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Freelance

Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

100 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous