Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 362 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst (exp 4+ ans)

Publiée le
Google Cloud Platform (GCP)

1 an
40k-47k €
360-440 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Business Analyst pour travailler au sein d'une entreprise internationale ! 🚀 Ce poste est fait pour toi si : Tu as 4 ans d'expérience professionnelle à minima sur des missions de Business Analyst . Tu as des compétences techniques sur les flux de données. Tu as une expérience professionnelle sur GCP et notamment sur Pub/Sub. Tu parles anglais à un niveau professionnel. Les bénéfices du poste : Environnement d'excellence : Évoluez au sein d'une entreprise certifiée Great Place To Work dans des locaux modernes Expertise technologique hybride : environnement technique riche alliant briques modernes sur GCP (Cloud Run, Pub/Sub) et socle PL/SQL . Enjeux métier internationaux : Participez à des projets Supply Chain stratégiques et internationaux couvrant l'intégralité du cycle de vie des commandes achat. Équilibre Build/Run valorisant : Bénéficiez d'un rôle dynamique avec une activité majoritairement orientée vers le Build (70%) en méthodologie Agile Scrum. Stabilité et visibilité : Engagez-vous sur une mission longue d' un an reconductible pour accompagner la feuille de route stratégique 2026 de l'équipe. Missions: Missions d'Analyse et de Conception (Build) Recueil et formalisation : Recueillir les besoins métiers auprès des responsables concernés et les formaliser de manière structurée. Rédaction de spécifications : Produire les spécifications fonctionnelles et techniques détaillées. Analyse technique : Analyser les problèmes techniques rencontrés dans le cadre du domaine d'activité. Animation du Backlog : Gérer et animer le backlog de la squad. Recette : Participer aux phases de recette pour valider les développements. Pilotage et Coordination Planification : Planifier le "delivery" (la livraison des fonctionnalités) de la squad. Communication : Assurer les échanges et la communication régulière avec les responsables métier. Méthodologie Agile : Évoluer dans un contexte Agile suivant la méthodologie Scrum. Maintenance et Qualité (Run) Maintenance applicative : Participer à la maintenance applicative du domaine de l'équipe. Durée de la mission : 1 an renouvelable Démarrage : rapide. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
DATA ENGINEER GCP

Publiée le
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Ingénieur DevOps

Publiée le
Google Cloud Platform (GCP)

45k-50k €
35000, Rennes, Bretagne
Télétravail partiel
Contexte Dans un environnement technologique exigeant et en forte évolution, vous interviendrez sur l’ensemble du cycle de vie des plateformes et des infrastructures, en collaboration étroite avec les équipes de développement, d’exploitation et de sécurité. Mission Vous contribuerez à la conception, à l’évolution et à la sécurisation des plateformes techniques, dans une logique d’automatisation, de performance et de fiabilité des services. Responsabilités Accompagner les équipes de développement dans l’optimisation, la fiabilisation et la sécurisation des environnements. Participer à la définition des architectures techniques et garantir leur évolutivité, leur disponibilité et leur résilience (PRA, haute disponibilité). Automatiser le déploiement et la gestion des infrastructures via une approche Infrastructure as Code (IaC) . Contribuer à l’amélioration continue des plateformes d’hébergement (monitoring, performances, capacité, scalabilité). Piloter ou accompagner des projets de migration Cloud et On-Premise vers des architectures cloud . Intervenir sur la gestion des incidents de production et contribuer à l’analyse des causes racines et aux plans d’amélioration.
Freelance
CDI

Offre d'emploi
DevOps GCP - RUN

Publiée le
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Télétravail partiel
Responsabilités principales. 1. Gestion des demandes et changements Traiter les demandes techniques, modifications d’infrastructure, évolutions de configuration. Enregistrer, analyser et planifier les changements en respectant les standards opérationnels. Rédiger comptes-rendus, documenter les opérations, produire les REX. 2. Gestion des incidents Diagnostiquer, résoudre et documenter les incidents sur le périmètre GCP. Analyser les causes racines et proposer des actions correctives. Gérer les escalades techniques et la communication vers les parties prenantes. 3. Supervision et intégration opérationnelle Configurer et maintenir alertes, métriques, logs (Cloud Monitoring, Logging, Dynatrace). Intégrer les nouveaux composants dans les systèmes de supervision, sécurité et journalisation. S’assurer que chaque brique est correctement surveillée et conforme aux référentiels internes. 4. Documentation opérationnelle Maintenir DEX, fiches réflexe, procédures incident/change. Garantir la qualité, l’exhaustivité et la mise à jour des documents d’exploitation. 5. Amélioration continue Identifier les optimisations possibles dans les processus RUN. Contribuer à la fiabilisation et l’industrialisation des opérations.
Freelance
CDI

Offre d'emploi
Data Ingénieur (30)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance
CDI

Offre d'emploi
Ingénieur DevOps (4+ ans d'expérience) H/F

Publiée le
Google Cloud Platform (GCP)
Kubernetes

1 an
43k-53k €
400-490 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Ingénieur.e DevOps expérimenté ! 🚀 Ce poste est fait pour toi si : Tu as 3 ans d'expérience professionnelle à minima en Kubernetes. Tu as 2 ans d'expérience professionnelle à minima en GCP. Tu as 3 ans d'expérience professionnelle à minima en construction de maintenance de pipeline CI/CD. Tu as déjà travaillé avec des outils d'observabilité. Tu parles anglais à un niveau professionnel. Missions: Audit et sécurisation des produits Legacy (gestion des backups/restore, maintien en condition opérationnelle). Mise en oeuvre et maintien des standards sur la partie Cloud (GCP, Aiven, Turbine, Helm, Kubernetes). Construction et maintenance des pipelines CI/CD (Github Reusable Workflows) pour standardiser les déploiements. Accompagnement pédagogique des développeurs pour les rendre autonomes sur le Run et le Monitoring. Support technique sur l'architecture et la migration progressive du Legacy vers le moderne. Mise en place de l'observabilité (Monitoring, Alerting) sur l'ensemble du périmètre. Une connaissance des pratiques SRE est un plus. Le rôle est au service de la fiabilité et de la vélocité des équipes de développement. L'intervenant opérera dans un contexte hybride : Gestion d'un existant Legacy critique (JBoss, SQL Server, VM, Nginx). Accélération sur les produits modernes (Full GCP, Aiven, Kubernetes). L'objectif n'est pas seulement de "faire", mais de rendre les équipes autonomes (Enablement) sur leurs gestes d'exploitation quotidiens. Equipe : l'équipe dont tu feras partie gère 3 types de produits : Du legacy. Des produits modernes (développés sur standards récents). De l'Innersource. Contexte: entreprise internationale. TT: 2 ou 3. Localisation: Lille. Démarrage: rapide. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Télétravail partiel
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
CDI
CDD
Freelance

Offre d'emploi
DATA  Engineer GCP

Publiée le
Google Cloud Platform (GCP)
Python
Scrum

18 mois
20k-60k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)

Publiée le
Apache
Google Cloud Platform (GCP)
Python

6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
CDI

Offre d'emploi
Consultant.e Cloud GCP

Publiée le
Cloud
Google Cloud Platform (GCP)
Kubernetes

55k-70k €
Paris, France
Télétravail partiel
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un.e Consultant(e) Cloud GCP pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir des architectures Cloud GCP hybrides et sécurisées (Cloud / on-premise, réseau, IAM) Déployer et opérer des plateformes Kubernetes sur GKE dans des environnements critiques et multi-environnements Industrialiser les infrastructures Cloud via l’Infrastructure as Code et des standards de déploiement Intégrer des services data et IA sur GCP dans des architectures Cloud Native Optimiser performance, sécurité et coûts sur des plateformes Cloud complexes Pourquoi nous rejoindre ? Chez FGTECH, nous croyons en une approche humaine et responsable du numérique. Nous sommes certifiés B Corp, Impact France et avons adopté le statut d’entreprise à mission dès notre création fin 2020. Ce qui attire les candidat(e)s : notre modèle inédit Organisation 4+1 : 4 jours dédiés aux missions clients et 1 jour pour son épanouissement personnel (formations, missions associatives, temps pour soi) Engagement sociétal : participation à des actions associatives et environnementales (ramassage de déchets, reforestation, etc.) Flexibilité : télétravail encouragé pour réduire notre empreinte écologique et améliorer la qualité de vie Culture d’entreprise : un environnement simple, joyeux et sérieux, où l’excellence, l’humanisme et la solidarité forment un tout
CDI

Offre d'emploi
EXPERT GCP

Publiée le
Google Cloud Platform (GCP)

40k-45k €
Paris, France
Télétravail partiel
Missions : Concevoir et sécuriser des architectures GCP selon les bonnes pratiques et standards de sécurité. Mettre en œuvre les mécanismes de sécurité cloud (IAM, réseau, chiffrement, supervision). Automatiser et sécuriser les infrastructures via Terraform et Ansible. Accompagner les équipes sur la sécurisation des environnements conteneurisés (Docker, Kubernetes). Réaliser des audits de sécurité, analyses de risques et recommandations de durcissement. Assurer la veille technologique et proposer des améliorations continues en sécurité cloud. Profil recherché : Certifié Google Cloud Engineer Minimum 5 ans d’expérience sur GCP Maîtrise de Terraform et Ansible, compétences sur Docker et Kubernetes Expertise en sécurité cloud, autonomie et capacité de conseil
CDI
Freelance

Offre d'emploi
Data Ingénieur (29)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
340-550 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande organisation médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques Prestation de cette équipe Déployer les datasets normés sur un ou plusieurs des data domain Accompagner les utilisateurs des datasets normés dans leurs usages Mettre en place le contrôle qualité sur ces datasets Prestations attendues Dans un premier temps, la prestation consiste à : Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog Industrialiser ces contrôles grâce à Terraform et Terragrunt Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l'objectif de livraison précédent et en interaction avec les membres de l'équipe, la suite de la mission consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
CDI

Offre d'emploi
GOOGLE CLOUD ARCHITECTE

Publiée le
Google Cloud Platform (GCP)

40k-45k €
Paris, France
Télétravail partiel
Architecte Cloud – Google Cloud Platform (GCP) Missions : Concevoir et déployer des architectures cloud performantes et sécurisées sur GCP. Automatiser les infrastructures avec Terraform et Ansible. Accompagner les projets de containerisation et d’orchestration via Docker et Kubernetes. Garantir la disponibilité, la sécurité et la scalabilité des environnements cloud. Conseiller les équipes sur les bonnes pratiques GCP et assurer la veille technologique. Profil recherché : Certifié Google Cloud Engineer Minimum 5 ans d’expérience sur GCP Maîtrise de Terraform et Ansible, compétences sur Docker et Kubernetes Capacité à concevoir des architectures cloud complexes, autonomie et esprit d’analyse
CDI

Offre d'emploi
Développeur Java GCP

Publiée le
Google Cloud Platform (GCP)
Java

40k-50k €
Nantes, Pays de la Loire
Ton quotidien en tant que Développeur/euse Java : Définir et analyser les besoins du client, Rédiger les spécifications techniques, Développer et optimiser les applications, Créer les tests et recettes fonctionnelles. Ce que nous proposons : Chez nous tu pourras bénéficier d’un accompagnement individualisé grâce à nos Proxy Manager ! Des managers de terrains qui contribuent à notre management 3.0, l’ADN d’Objectware. Notre priorité : Te faire intégrer une mission qui te correspond tout en te faisant monter en compétence grâce à Objectware Training, notre organisme de formation. Tu veux rajouter une flèche à ton arc ? C’est avec enthousiasme et écoute que nous t’accompagnerons vers ce projet ! Nous misons sur le partage : A ton tour, tu pourras endosser le rôle de Proxy Manager mais aussi celui de formateur. Et pourquoi, pas rejoindre nos teams techniques animées par des consultants expérimentés ?

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

362 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous