Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Mission freelance
Architecte Solution Cloud GCP
Afin de renforcer nos équipes chez l'un de nos clients grands compte, nous recherchons un(e) Architecte technique Solution F/H. Missions : - Définir l’architecture technique, la documenter et mettre en œuvre les composants nécessaires à la construction et l’évolution des produits - En s’appuyant sur le catalogue des patterns d’entreprise, s’assurer que les architectures proposées répondent aux exigences suivantes : - Conformité avec les guidelines et directives d’architecture de l’entreprise - Standardisation et respect de la stack technologique - Sécurité (selon les préconisations DIRS) - Scalabilité et robustesse (à leur juste niveau) - Coût et d’optimisation de coût Durant les phases de développement MVP et releases, vous serez en support aux projets sur la conception et la résolution des problèmes techniques. Environnement technique : OnPremise et Cloud GCP Solutions de stockage de données (SGBD, NoSQL, fichiers, Big data) Calcul (VM, containers, orchestration, serverless) Interfaçages (API, events, streaming) Authentification (OIDC/OAuth) CI/CD Intégration de progiciels Connaissance d’un language de développement Maitrise de la méthodologie Agile et SAFe Maitrise de l’anglais

Offre d'emploi
DATA ENGINEER GCP x PYTHON
Je recherche pour un de mes clients un Data Engineer Python x GCP : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Compétences techniques : • Langages de programmation : Python, Scripts Shell • Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XM

Offre d'emploi
Ingénieur de Production DevOps – Secteur Bancaire (Paris)
🎯 Contexte du projet Dans le cadre d’un projet stratégique de fusion de systèmes d’information , nous recherchons un Ingénieur de Production DevOps expérimenté pour renforcer nos équipes. Vous interviendrez sur des environnements critiques, en lien étroit avec les équipes de développement et la DSI, dans une démarche DevOps orientée qualité, automatisation et fiabilité. 🛠️ Environnement technique Systèmes : Linux, Windows Middleware : JBoss 8, Apache 2, IIS Cloud & Conteneurisation : OpenShift, GCP ou AWS CI/CD & DevOps : Jenkins, Bitbucket, XL Deploy (XLD), XL Release (XLR), Ansible Supervision & Logs : Zabbix, ELK Méthodologie : DevOps, Agile 📌 Vos missions🔧 En mode RUN Assurer la MCO des applications du département Documenter rigoureusement les applications confiées Organiser les échanges réguliers avec la DSI Respecter les normes de conception des chaînes de traitement Comprendre le fonctionnel et optimiser l’exploitation 🏗️ En mode BUILD Être le point d’entrée entre la DSI et les équipes techniques Produire et exiger les livrables projets (dossiers d’exploitation, consignes…) Provisionner les infrastructures des environnements Identifier les risques projets et contribuer aux plans de remédiation Valider ou adapter l’architecture au meilleur coût Participer à la conception et à l’automatisation de la chaîne CI/CD Anticiper l’exploitabilité dès la phase de développement (logs, supervision, ordonnancement…) Définir et instruire les niveaux de classe de service
Mission freelance
Développeur Full stack - Python (Django) / React- ANGLAIS
Métiers: Développeur Fonctions Etudes & Développement Spécialités technologiques Type de facturation Assistance Technique (Facturation avec un taux journalier) Compétences Technologies et Outils Python; TypeScript; React; Django; GCP; Kubernetes; AWS; SQL; Azure Méthodes / Normes Agile Secteurs d'activités Services Informatiques Description et livrables de la prestation UN TEST TECHNQIUE ET PREVU PAR LE CLIENT AVANT LES ENTERTIENS. SEUL LES CVs AVEC UNE EXPERTISES DJANGO ET REACT SERONT ETUDIES. L'ANGLAIS ORAL EST UN PREREQUIS, LE BUDGET POUR CE BESOIN EST ENTRE 400€ et 450€. Pour l'un de nos clients dans le secteur bancaire, nous recherchons un développeur full stack pour intégrer l'équipe de développement de leur plateforme maison. Cette plateforme, une All Data Platform, a été conçue pour répondre aux enjeux de la data de demain dans le domaine de l’Asset Management. Basée sur les principes du Data Mesh, elle facilite l’ingestion et l’exploitation des données tout en offrant aux Citizen Developers un écosystème sécurisé, modulable et évolutif. Missions principales En tant que membre du lab, le/la prestataire sera responsable de : - Répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur, - Participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists, - Contribuer à l'amélioration continue des produits et services proposés par l'entreprise, - La prestation nécessitera du développement de prototypes et de l’accompagnement technique, - La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet, - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de données, - Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichissement de l’automatisation des tests, - Respect des délais impartis. - ANGLAIS ORAL NECESSAIRE
Mission freelance
Expert sécurité cloud GCP/ IAM GCP/ SECURITE, RESEAUX / TERRAFORM / PYTHON (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Mission freelance
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Mission freelance
Ingénieur DevOps / SECTEUR SPIRITUEUX
SECTEUR SPIRITUEUX Nous recherchons pour notre client un ingénieur DevOps. Misions : Administrer et optimiser les environnements cloud (Azure, GCP, éventuellement AWS). Développer et maintenir des scripts d’automatisation / IaC (Terraform, Ansible). Gérer et faire évoluer les pipelines CI/CD (GitLab, Jenkins, Azure DevOps, GitHub Actions). Mettre en place la supervision (Dynatrace, Azure Monitor, GCP) et gérer les incidents N2/N3. Intégrer et exploiter des solutions IAM (SailPoint, Azure AD, Okta, Ping). Accompagner les projets : mise en place d’environnements, résolution d’intégrations, suivi des déploiements. Maintenir la documentation technique et proposer des améliorations continues.

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.
Mission freelance
INGENIEUR PRODUCTION SYSTEME CLOUD H/F
Nous sommes actuellement à la recherche d'un ingénieur Production Système Cloud. En tant qu'Ingénieur(e) de Production Système & Cloud, vous jouerez un rôle clé dans le maintien et l'évolution de nos environnements système et cloud, tout en participant à l'amélioration continue. Votre mission principale consistera à assurer la disponibilité, la sécurité et l'optimisation de nos plateformes, en intervenant aussi bien sur des aspects opérationnels (run). /!\: Nous demandons une expérience solide sur les environnements Azure et Microsoft Windows Server.

Offre d'emploi
TECH LEAD POWER BI
Bonjour, Pour le compte de notre client, nous recherchons un profil Tech lead Power BI. Profil Hybride : Tech lead Power BI / System Architect (l’activité sera probablement répartie à 50/50 sur ces 2 rôles) Expérience requise : 5-10 ans sur Power BI + une bonne expérience en modélisation avancée, administration Power BI et optimisation complexe Il doit également avoir une expérience de définition d'architecture technique en environnement Power BI - Big Query (Google Cloud Platform). Connaissances techniques : Power BI (Dashboard, Dataset, Dataflow, Power automate et Report builder) Big Query (Google Cloud Platform) ou cloud équivalent Connaissances générales : Base de données relationnelles Modélisation avancée Architecture BI-DWH-serveur Bonnes pratiques de livraison CI/CD Exigences non fonctionnelles dans un environnement BI Approche Security by Design Scope de la mission : Analyse, conception sur les nouveaux besoins de reporting Développements avancés (Dashboard, Dataset, Dataflow, Power automate, Report builder) Définition/diffusion des bonnes pratiques de développement Administration de la plateforme Power BI et des gateway Mise en place des outils d’administration / Monitoring Power BI Audit de programme Power BI Préconisation d’optimisation Power BI Accompagnement des équipes de développement Support Power BI L3 sur les incidents Définition des architectures, Rédaction des documents associés.

Offre d'emploi
DevOps / Administration et MCO de la production
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
Mission Freelance – CloudOps Engineer – Paris (hybride)
🎯 Mission Freelance – CloudOps Engineer – Paris (hybride) Pour le compte d’un grand groupe international, nous recherchons un·e CloudOps Engineer pour rejoindre une équipe cloud d’environ 170 personnes. Objectif : simplifier les outils techniques du groupe et automatiser les infrastructures. 🎯 Objectifs de la mission : Administrer et optimiser les environnements GCP (prioritaire) et AWS Fournir des services cloud “clé en main” pour les équipes IT Automatiser les déploiements via l’ Infrastructure as Code Améliorer la sécurité, la fiabilité et les bonnes pratiques Travailler avec les équipes sécurité, produit et run Accompagner la transformation cloud à grande échelle 🔧 Stack technique : Cloud : GCP, AWS – certification pro demandée (ex : GCP Architect Pro, AWS Solutions Architect Pro) Outils : Terraform, Python, Bash, Curl, APIs Méthodes : DevOps, scripting, automatisation, IaC Environnements : Linux, CI/CD, sécurité cloud, monitoring Langue : anglais B2 minimum 🧠 Compétences attendues : Python : confirmé / expert CloudOps / GCP / AWS : confirmé à expert Terraform (IBM) : confirmé IAM Cloud / Cloud Native : confirmé ✅ Profil recherché : 3 à 5 ans d’expérience cloud Bonne maîtrise des architectures distribuées À l’aise sur le run (1 semaine par mois) et le support utilisateurs Autonome, communicant, pédagogue 📍 Lieu : Paris (hybride) 📅 Démarrage : ASAP 💰 TJM : selon profil 📨 Intéressé·e ? Merci de postuler votre CV à jour

Mission freelance
Ingénieur Intégration de données
Vous interviendrez au sein de notre équipe en tant qu'ingénieur intégrateur de données autour des solutions modernes. Vos missions consisteront à contribuer à/au (x): Mise en place d'un DATA HUB ainsi qu'au développement, Mise en place des intégrations de données, Assurer le maintien des usecases existants de la Data Plateform: Ingestions, transformation, exposition, Assurer la migration vers le Data Hub, Apporter une expertise et un support technique pour définir et développer les intégrations de données des applications, Pour mener à bien ce projet, vous devrez justifier de: Expertise technique en matière d'intégration de données autour de solutions modernes, Avoir déjà travaillé sur des projets de mise en place de DATA HUB, Etre en capacité de s'appuyer sur le travail fourni par les : data architectes, des centres d’expertise Kafka et API Capacité à offrir des solutions adéquates sur les environnements Cloud GCP. Contexte International: ANGLAIS Lu parlé et écrit, Bonne capacité relationnelle et rédactionnelle Compétences techniques obligatoires : Kafka (KSQLDB, Kafka Stream, Flink) et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres