Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.
Mission freelance
Data Engineer - GCP
Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.
Mission freelance
Business Analyst Data (H/F)
Nous recherchons pour l'un de nos clients un Business analyst Data, compétent sur des environnements agiles. Vos missions : Recueillir et formaliser les besoins métiers en matière de données. Participer à la modélisation et à la structuration des données sur BigQuery. Assurer la qualité, la cohérence et la gouvernance des données. Collaborer avec les équipes techniques pour concevoir et faire évoluer les pipelines et le modèle de données. Produire la documentation et les livrables associés (spécifications, tests, suivi projet). Outils : BigQuery , SQL, Collibra, Jira, Confluence, Teradata Studio Cloud : Google Cloud Platform (Dataflow, Cloud Composer, Pub/Sub, Cloud Storage) Méthodologie : Agile / Scrum
Offre d'emploi
DATA ENGINEER GCP (480€ MAX)
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Offre d'emploi
Développeur react.JS / next.JS confirmé H/F
Les principales missions sont les suivantes : Participer aux analyses techniques et aux études d’impacts liées aux User Stories ; Concevoir des solutions en respectant les bonnes pratiques de développements ; Fournir des chiffrages détaillés des futures réalisations (dans le cadre des Backlog Refinements) ; Réaliser les développements ; Effectuer des contrôles croisés : Relecture et validation de Pull Request, Pair Programming et écriture de Tests unitaires/Intégration/End to End ; Assurer le support aux équipes d’homologateurs/Product Manager/Product Owner lors des phases de recette ; Assurer le support lors des mises en production de chacune des évolutions ; Assurer le maintien en condition opérationnelle des applications du périmètre (effectuer les analyses sur incident en support des équipes d’exploitation, et réaliser les correctifs le cas échéant)..
Mission freelance
Business Analyst DATA Modélisation HF
Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
Offre d'emploi
Scrum Master - DATA
📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.
Offre d'emploi
Architecte Data GCP
Au sein d’une grande organisation du secteur bancaire, la Direction des Infrastructures et des Plateformes Cloud souhaite renforcer son expertise en architecture Cloud dans le cadre d’un projet de transformation stratégique. L’objectif est d’accompagner les équipes internes dans la conception et la mise en œuvre de solutions Cloud hybrides et réversibles, tout en développant les bonnes pratiques autour de la gouvernance et de la consommation des services GCP. La mission s’inscrit dans le cadre d’un programme de modernisation IT visant à favoriser l’adoption des plateformes Cloud et à soutenir les ambitions de digitalisation du groupe.
Offre d'emploi
Data engineer Talend/GCP
Et si c’était vous notre prochain(e) Data Engineer ? Chez CharliGroup, on pense qu’un bon environnement de travail, ce n’est pas juste une stack à jour ou des bureaux sympas. C’est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d’évoluer à votre rythme, avec du sens. Aujourd’hui, on recherche un(e) Data Engineer Talend/GCP pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur du Retail . Mais pas n’importe comment : on vous propose un vrai parcours, avec un temps dédié à la formation, au partage de connaissances, et à votre montée en compétences. Vous intervenez sur des projets concrets, à fort impact, tout en bénéficiant du soutien de la communauté CharliGroup. Missions : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité.
Mission freelance
NETWORK SECURITY, SDM H/F
Dans ce rôle stratégique, vous serez responsable de la gouvernance et de la performance de tous les services réseau et sécurité au sein de notre infrastructure mondiale. Vous serez l'interface principale entre les équipes techniques, les parties prenantes métier et les fournisseurs externes afin de garantir la fourniture de services stables, sécurisés et de haute qualité répondant aux besoins de l'entreprise. Vous superviserez l'ensemble du cycle de vie des services, de la transition à l'exploitation, et piloterez les initiatives d'amélioration continue en collaboration avec les équipes Cybersécurité et Architecture. Ce poste nécessite une forte orientation vers les processus, les indicateurs de performance (SLAs/KPIs) et la gestion des parties prenantes.
Mission freelance
PO data - GCP/Power BI - Supply
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,
Mission freelance
Senior devops - expertise Observabilité
Contexte de la mission Présentation de la demande Nous recherchons au sein du pôle Observability dans notre équipe Engineering Productivity, un ingénieur expérimenté et autonome pour prendre la responsabilité d’un ou plusieurs projets et gestion de process autour de l'observabilité et notamment les notions de metrics, traces et alerting. Le terrain de jeu est propice à la prise d’initiative : une plateforme internationale, au coeur de l'ensemble des initiatives digitales L'offre est est possible en remote avec 2 jours / mois sur Lille (si localisation hors métropole Lilloise avec possibilité d'espace de coworking dans certaines de villes de France) Le projet Au cœur des équipes Cloud Platform Engineering (CPE), l'équipe Engineering Productivity et spécifiquement l'équipe Observability a pour objectif de construire et maintenir les process et l'accompagnement autour des notions et pratiques d'Observability (metrics, trace, logs management, dashboard, alerting) au sein de l'ensembles des solutions digitales Pour répondre à ces besoins, l'équipe développe et maintient des solutions utilisées mondialement par nos solutions e-commerces et magasins dans plus de 70 pays. Pour cela nous avons besoin de renforcer notre équipe avec un profil ingénieur expert / senior, qui sera un acteur clef pour la réussite de ces challenges. Clause de Confidentialité Toutes informations transmises par l’une des parties à l’autre partie comme informations transmises pour la réalisation des prestations ont un caractère confidentiel. Dès la réalisation d'une prestation, chaque partie s'engage à conserver comme confidentielles toutes les informations obtenues de l’autre partie. Chaque partie garantit le respect des engagements de cet article par tout son personnel et/ou les autres intervenants aux prestations. Objectifs et livrables En tant que consultant APM, tu contribueras au maintien opérationnel des solutions Datadog et Splunk via : Maintien et tests de nos stacks Terraform Développement en Python/Go d'API ou de composants OpenTelemetry Accompagnement technique et configuration avec les utilisateurs Déploiement sur certains périmètres Prise en charge d’une partie du RUN Formation et le suivi de nos utilisateurs Industrialisation et mise en conformité avec nos gouvernances SI Automatisation du provisionnement Définition des règles et bonnes pratiques Audit de conformité (application des bonnes pratiques) Création de Control Towers vérifiant la qualité du service rendu Mise à jour de la base documentaire Tu formalises régulièrement tes avancées auprès du responsable de ces solutions. Enfin, évoluant dans un contexte international, tu as un niveau d’anglais courant. Tu évolueras dans un contexte Agile au sein d'une équipe pluridisciplinaire autour d'un leitmotiv : "You Build it, You run it, You Enjoy it"... Environnement Technique Solutions: Datadog, OpenTelemetry, Splunk, Solarwinds, Pagerduty Tu maitrises au moins un language de développement de type Python ou Go Tu as une affinité particulière pour l'observabilité et tu comprends et maîtrise l'intérêt des logs, métriques, traces. Tu es à l'aise dans un environnement Kubernetes et dans l'utilisation d'un Cloud Provider (GCP ou AWS) Compétences demandées Compétences Niveau de compétence DATADOG Confirmé Programmation Python Confirmé Google Cloud Confirmé KUBERNETES Confirmé SPLUNK Élémentaire Observability Expert AWS Confirmé GOLANG Confirmé IBM Terraform Confirmé Langues Niveau de langue Anglais Courant
Mission freelance
Lead Developer - Lille
Nous recherchons un Lead Developer expérimenté (10 ans d’expérience minimum) pour l'un de nos clients basé à Lille . Compétences recherchées : Power Platform Google Cloud Platform (GCP) Vue.js Kafka API REST Bitbucket / CI-CD Profil recherché : Solide expérience en lead technique et architecture applicative Capacité à encadrer, challenger et faire monter en compétence une équipe de devs Bonne maîtrise des environnements cloud et des bonnes pratiques DevOps Excellent relationnel, sens de la communication et de la pédagogie
Offre d'emploi
Data ENG GCP CAEN
Dans le cadre du développement de nos activités Data & Cloud auprès d’un grand compte , nous recherchons un Data Engineer expérimenté sur l’écosystème GCP pour rejoindre une équipe projet dynamique basée à Caen( de préférence un profil habitant Caen et ses alentours (3jours sur site /2jours TT .) Vous interviendrez au cœur d’un environnement technologique innovant, sur la construction, l’industrialisation et l’optimisation des pipelines de données dans un contexte Cloud en pleine transformation.
Mission freelance
Data Scientist Confirmé - Bilingue anglais (H/F)
Si manipuler, modéliser et valoriser la donnée client te passionne, ce poste de Data Scientist Retail est fait pour toi ! 🚀 Ton challenge si tu l’acceptes : · Construire un projet data from scratch autour de la segmentation client et du retail · Développer des modèles de scoring et d’analyse comportementale pour aider les équipes marketing et commerciales · Concevoir et déployer des solutions sur GCP (Google Cloud Platform) · Travailler en Python sur des problématiques concrètes de consommation et de performance · Collaborer chaque jour avec des équipes françaises et internationales · Présenter tes analyses et recommandations à des interlocuteurs métiers et clients 📍 Localisation : Full Remote (2 jours/mois sur site à Massy (91) 🏡 Rythme : hybride ℹ️ Poste : Freelance/ CDIC 💰 Salaire : Il n’existe pas un salaire défini puisqu’il sera à définir ensemble selon ton expérience et tes compétences
Mission freelance
X2 Mission freelance / Portage - DevOps / Cloud Engineer -Lille - Long terme
Bonjour, Pour l’un de mes clients, je recherche un DevOps / Cloud Engineer . Description : Nous recherchons un DevOps / Cloud Engineer pour travailler sur des projets Cloud variés. Vous participerez à la mise en place, à l’automatisation et à la maintenance d’infrastructures et d’applications dans un environnement agile. Missions principales : Déployer et maintenir des environnements Cloud Automatiser des processus et pipelines Surveiller et assurer le bon fonctionnement des systèmes Accompagner les équipes sur les bonnes pratiques Profil recherché : Expérience DevOps ou Cloud Maîtrise des environnements Cloud (GCP ) Connaissance d’outils d’automatisation et de scripting Esprit d’équipe, rigueur et autonomie Compétences : Cloud (GCP, Kubernetes souhaité) Automatisation / CI/CD Infrastructure as Code SQL et Linux souhaités Méthodes Agile Langue : Français courant Si vous êtes intéressé(e) et que votre profil correspond à la demande, merci de postuler avec votre CV à jour. Je reviendrai vers vous rapidement.
Mission freelance
Ingénieur/Administrateur Infrastructure & Cloud (GCP, Azure, systèmes, réseaux)
Notre client recherche un profil de Responsable Infrastructure & cloud qui aura pour mission d’assurer la stabilité, la sécurité et la performance du système d’information en intervenant sur l’ensemble du périmètre infrastructure, réseau, support IT et cloud. Vous apportez votre expertise technique et organisationnelle pour renforcer la fiabilité du SI, structurer la gestion des incidents d’exploitation et optimiser la configuration des environnements serveurs, cloud et matériels informatiques. Périmètre d’intervention et responsabilités 1. Infrastructure & Réseau Superviser et maintenir les infrastructures serveurs (physiques, virtuels et cloud). Gérer les incidents d’exploitation liés aux serveurs, au réseau et aux équipements informatiques. Garantir la disponibilité, la sécurité et la performance du SI. Gérer la supervision, les sauvegardes, la continuité d’activité (PRA/PCA) et la documentation associée. Administrer les réseaux LAN, WAN, VPN, VLAN, firewall, Wi-Fi et interconnexions entre sites. 2. Support IT & gestion du matériel Encadrer le support IT (N1/N2), prioriser et résoudre les incidents et demandes utilisateurs. Définir les processus ITIL (incidents, demandes, changements). Piloter la maintenance, l’inventaire et le renouvellement du parc matériel (postes, serveurs, périphériques). Assurer le suivi des performances et de la satisfaction utilisateur. 3. Cloud : Configuration & Administration (Azure / GCP) Configurer, administrer et sécuriser les environnements Microsoft Azure et Google Cloud Platform (GCP). Gérer les comptes, ressources, politiques IAM, réseaux virtuels (VNET / VPC) et interconnexions hybrides. Mettre en place les mécanismes de sécurité et conformité cloud (MFA, RBAC, audit logs, backup). Piloter le déploiement et la maintenance des machines virtuelles, conteneurs, bases de données et services managés. Optimiser la consommation et les coûts cloud (monitoring, alerting, dimensionnement). Intégrer les environnements cloud avec les infrastructures on-premise (connectivité, authentification, SSO). Superviser la redondance, la sauvegarde et la reprise d’activité (PRA cloud). 4. Licences, Sécurité & Conformité Gérer l’inventaire et la conformité des licences logicielles (Microsoft, Adobe, antivirus, etc.). Assurer la conformité du SI aux politiques internes et réglementations (RGPD, conformité interne). Piloter les audits de sécurité, le plan de remédiation et la sensibilisation des utilisateurs. Participer à la définition et à l’application des politiques de sécurité (pare-feu, MFA, EDR, patch management). 5. Gouvernance & Pilotage Élaborer et suivre les budgets infrastructure, cloud et licences. Définir les indicateurs de performance (KPI, SLA) et produire les tableaux de bord. Encadrer et suivre les prestataires techniques. Proposer des recommandations d’optimisation et d’évolution du SI (veille technologique).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres