Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 422 résultats.
Freelance

Mission freelance
Data Analyste Data Engineer GCP Power BI anglais 370 e

BI SOLUTIONS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI

2 ans
210-370 €
Île-de-France, France
Data Analyste Data Engineer GCP Power BI anglais 370 e Datamart & Reporting : Niveau Avancé. ● Dataviz : Maîtrise avancée et obligatoire de Looker Studio (Google Datastudio) et connaissance de PowerBI. ● Bases de données & Requêtage : SQL (Confirmé) et BigQuery (Avancé). KQL est un plus ● Cloud : Connaissances de base sur Google Cloud Platform (GCP - Élémentaire), Microsoft Fabric est un plus ● ETL : Connaissance des principes ETL et Data Fusion est un plus ● Intelligence Artificielle : Sensibilité/appét 370 e par jour
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
Freelance

Mission freelance
DevOps / Cloud Engineer (GCP obligatoire

I-lead Consulting
Publiée le
Administration systèmes et réseaux
Google Cloud Platform (GCP)

1 an
400-550 €
Rennes, Bretagne
Nous recherchons un(e) DevOps / Cloud Engineer expérimenté(e) pour rejoindre notre équipe Infrastructure et Sécurité SI. Le candidat devra être capable de concevoir, déployer et maintenir des infrastructures complexes, principalement sur Google Cloud Platform (GCP) , tout en assurant la sécurité, la performance et la disponibilité des systèmes. Le poste inclut à la fois des responsabilités techniques (administration, automatisation, containerisation) et de pilotage de projets. Missions principales 1. Administration système et Cloud : Conception, mise en œuvre, optimisation et maintien en condition opérationnelle (MCO) de l’infrastructure SI. Gestion de serveurs Windows et Linux. Virtualisation (VMware) et orchestration de containers avec Kubernetes . Gestion de stockage (NetApp, IBM) et solutions de sauvegarde (Veeam). Gestion des environnements Exchange Online, AD et Azure AD. Déploiement et maintenance d’infrastructures Open Source. Mise en place de pipelines CI/CD sur GitLab CI . Gestion de l’infrastructure via Terraform pour GCP. 2. Administration réseau et sécurité : Administration des systèmes de sécurité : firewall, proxy, reverse proxy, WAF, PAM, SSE, EDR, SSO. Gestion et configuration des équipements réseau Cisco (Nexus), LAN/WAN, routage et SD-WAN. 3. Pilotage de projets et transverse : Conduite de projets depuis la conception jusqu’à la mise en production. Pilotage de prestataires et coordination des intégrateurs. Rédaction et mise à jour de procédures techniques et documentations pour l’exploitation et le CSI. Proposition de solutions adaptées aux besoins de l’entreprise, en veille technologique permanente. 4. Support utilisateurs et escalade : Escalade de niveau 2 pour le CSI et l’exploitation. Traitement des demandes utilisateurs (applicative, matérielle, logicielle). Identification et mise en œuvre de solutions innovantes pour répondre aux besoins des utilisateurs.
Freelance

Mission freelance
Lead QA

ESENCA
Publiée le
API
Cypress
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Objectif global Animer et piloter l’équipe qualité en définissant la stratégie de tests et en garantissant l’excellence opérationnelle des solutions digitales. Contexte Environnement digital à fort enjeu autour de la performance financière et de la fiabilité des données. Les systèmes concernés (comptabilité, paiements, reporting) sont critiques et nécessitent un haut niveau d’exigence en matière de qualité. Contraintes du projet Certification ou connaissance ISTQB requise Contexte international Forte exigence de fiabilité et de précision Livrables (Non spécifiés – mission orientée pilotage, stratégie et exécution qualité) Compétences techniques Cypress, Playwright ou Selenium – Confirmé – Impératif Tests d’API (Postman / Newman, Bruno) – Confirmé – Impératif Connaissances linguistiques Anglais professionnel – Impératif Description de la mission Le Lead Qualité intervient sur une plateforme digitale stratégique afin de définir la vision qualité et piloter l’ensemble des activités de tests, sur des solutions développées en interne ou intégrées. Missions principales1. Stratégie et gouvernance Définir et porter la stratégie globale de tests adaptée à la criticité des produits Mettre en place et suivre les KPI qualité (couverture, anomalies en production, MTTR) Promouvoir une approche Shift Left en intégrant la qualité dès la conception 2. Expertise QA – Développement interne (MAKE) Définir et déployer les stratégies de tests automatisés (unitaires, intégration, E2E) Industrialiser les tests dans les pipelines CI/CD (GitLab) Piloter les tests non fonctionnels : performance, charge, sécurité 3. Pilotage qualité – Solutions intégrées (BUY) Garantir la fiabilité des flux de données entre systèmes Coordonner les phases de recette métier (UAT) Assurer la non-régression lors des évolutions et montées de version
Freelance

Mission freelance
Cloud engineering Landing Zone SMTP Expérimenté (450€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)
SMTP (Simple Mail Transfer Protocol)

1 an
360-450 €
Île-de-France, France
● Concevoir une architecture SMTP Postfix intégrée à Google Workspace (relais HA, split/dual delivery). ● Configurer le flux, le filtrage et le routage (restrictions smtpd, header/body checks, queues, transport_maps). ● Sécuriser et authentifier la messagerie (SPF, DKIM/OpenDKIM, DMARC, ARC). ● Chiffrer les échanges SMTP (TLS opportuniste/forcé, certificats, DANE/TLSA). ● Industrialiser le déploiement en IaC/GitOps (Terraform, Ansible/SaltStack, CI/CD DNS TXT/MX). ● Piloter la délivrabilité et la réputation (bounces, RBL, rate-limiting). ● Observer et diagnostiquer (centralisation logs Loki, dashboards, postscreen). ● Mettre en place le content filtering et la conformité (ex. Mimecast, POLP, SASL). ● Documenter et standardiser (runbooks, remédiation, traçabilité des changements).
Freelance

Mission freelance
Lead Qualité (Expert QA Automation)

Sapiens Group
Publiée le
Cypress
Google Cloud Platform (GCP)
JMeter

12 mois
400-450 €
Lille, Hauts-de-France
Objectif global Animer l’équipe qualité et définir la stratégie globale de tests pour garantir l’excellence opérationnelle des solutions numériques de la plateforme FPDP (Finance & Performance Digital Platform), qu’elles soient développées en interne ou intégrées via des progiciels. Contrainte forte Certification ISTQB requise. Missions principales Stratégie et Gouvernance Porter la vision stratégique des tests adaptée à la criticité de chaque produit (P&L, Budget, Forecast). Définir et suivre les KPIs qualité : taux de couverture, densité d’anomalies en production, MTTR. Promouvoir la culture Shift Left et diffuser les bonnes pratiques d’engineering dès les premières phases de conception. Expertise Technique – Développement interne (“MAKE”) Automatisation : concevoir et implémenter des stratégies de tests (Unitaires, Intégration, E2E). Industrialisation : intégrer les suites automatisées dans les pipelines GitLab CI/CD pour un feedback continu. Validation hors-fonctionnelle : piloter les tests de performance, charge et sécurité. Pilotage Qualité – Intégration logicielle (“BUY”) Assurer la robustesse des flux de données entre systèmes internes et solutions partenaires. Coordonner les phases de recette métier (UAT) avec les équipes produit et les utilisateurs finance. Garantir l’intégrité fonctionnelle lors des montées de version des éditeurs. Management et coordination Manager l’équipe QA en respectant les engagements de coût, délai et qualité. Coordonner les relations avec les différents intervenants et parties prenantes. Conduire les revues de projet, évaluer la qualité des produits et capitaliser les retours. Profil recherché Hard Skills Expérience : minimum 5 ans en QA, dont 3 ans sur un rôle de Lead ou Expert Automatisation. Secteur : expérience indispensable en Finance, Comptabilité ou Gestion de la performance. Outils : maîtrise avancée de Cypress, Playwright ou Selenium. API & Data : expertise en tests d’API (Postman/Newman, Bruno) et SQL pour validation des données financières. Performance : expérience avec JMeter, Octoperf, Gatling ou k6. Cloud : connaissance de GCP est un plus. Certification ISTQB obligatoire. Soft Skills Pédagogie : capacité à mentorer les développeurs et testeurs. Rigueur extrême et obsession du détail. Pragmatisme et capacité à arbitrer entre vision stratégique et actions immédiates. Aptitude à demander du feedback et à incarner le changement. Compétences linguistiques Anglais professionnel impératif.
Freelance

Mission freelance
Développeur GenAI Python / GCP (H/F)

HOXTON PARTNERS
Publiée le
GenAI
Google Cloud Platform (GCP)
Python

1 an
400-520 €
Paris, France
Dans le cadre du développement de solutions d’intelligence artificielle avancées, nous recherchons un Développeur GenAI Python avec expertise GCP afin de contribuer à la conception et au développement de services applicatifs basés sur des modèles d’IA générative. Le consultant interviendra sur la conception et le développement de services applicatifs autour des LLM , l’intégration de modèles d’intelligence artificielle, ainsi que la mise en place d’architectures cloud scalables dans un environnement Google Cloud Platform. L’objectif est de construire des composants robustes permettant d’exploiter l’IA générative dans des applications à forte exigence de performance, de sécurité et de scalabilité. La mission couvre l’ensemble du cycle de développement : design d’API, développement de microservices, intégration des modèles d’IA, mise en production et optimisation des performances dans un environnement cloud moderne. Le consultant contribuera également à la mise en place de mécanismes d’orchestration d’agents IA, d’intégration avec des modèles LLM et de couches d’intégration sécurisées , afin de garantir des systèmes fiables et performants. Responsabilités principales Développer des services applicatifs autour de l’IA générative et des modèles LLM Concevoir et développer des microservices en Python Mettre en place des API REST sécurisées et performantes Intégrer des LLM (OpenAI, Anthropic, Vertex AI) dans les applications Développer des mécanismes de routage et d’orchestration pour agents IA Concevoir des architectures cloud scalables et résilientes sur GCP Optimiser les performances pour garantir faible latence et haute disponibilité Mettre en œuvre les bonnes pratiques de sécurité applicative et IA Environnement technique Cloud Google Cloud Platform : Cloud Run, Cloud Build, Cloud Functions Vertex AI Backend Python FastAPI Pydantic SQLAlchemy Bases de données Firestore Redis NoSQL GenAI Intégration LLM (OpenAI, Anthropic, Vertex AI) Prompt engineering Architectures d’agents IA Frameworks d’orchestration (LangChain, ADK) DevOps Docker GitHub CI/CD Monitoring Cloud Logging Cloud Monitoring Outils de développement GitHub Outils de développement assistés par IA
Freelance

Mission freelance
DevOps Production Cloud GCP Kafka

CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)

12 mois
400-580 €
Paris, France
Vous accompagnerez les équipes sur les plateformes Confluent Cloud Kakfa SaaS, Kakfa Connect GCP & OnPremise. Vos missions consisteront à contribuer: Administration Kafka et Mise en oeuvre du socle autour de Kafka Faire évoluer et maintenir la plateforme technologique autour Confluent KAFKA Mise en place et Support aux équipes de développements sur les configurations & bonnes pratiques Confluent Kafka (topics..) Participer à l’administration et les optimisations des flux Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Participer à la Supervision des flux Kafka Participer à la surveillance des machines On-Premise participant à l'écosystème Kafka Participer à la Configuration et l’optimisation de la remontée des logs et traces dans Dynatrace Contribuer à Garantir la conformité des accès selon les standards de sécurité Contribuer à Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Automatisation & IaC Développer des modules Terraform pour la gestion de la plateforme Automatiser les tâches récurrentes Optimiser les processus de déploiement et de rollback
Freelance

Mission freelance
Developpeur fullstack expert python

HAYS France
Publiée le
Google Cloud Platform (GCP)
Python
Test unitaire

3 ans
100-450 £GB
Lille, Hauts-de-France
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
CDI
Freelance

Offre d'emploi
Mission freelance - Portage - DevOps PHP (2-5 ans) - Rennes

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
PHP
RabbitMQ

1 an
40k-50k €
100-400 €
Rennes, Bretagne
Bonjour, Pour l’un de mes clients, je recherche un(e) : Intégrateur DevOps confirmé – Rennes Mission au sein du pôle Infra pour garantir la disponibilité, la performance et la sécurité des applications sur un environnement GCP, avec conteneurisation et automatisation. Travail sur l’administration des systèmes Linux et Windows, le support applicatif, le MCO, ainsi que l’automatisation des déploiements et du monitoring. Compétences : PHP obligatoire, RabbitMQ important. Docker, GitLab CI, Kubernetes, Terraform, Ansible, GCP souhaité. Profil recherché : DevOps PHP confirmé (2 à 5 an Hors Stages et Alternances ), à l’aise avec les environnements GCP, l’automatisation, le déploiement, la conteneurisation et l’administration systèmes. Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Freelance

Mission freelance
Ingénieur DevOps GCP/GKE

CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

12 mois
400-510 €
Paris, France
Vous interviendrez dans le cadre de la mise en production et industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Construire les scripts terraform de provisionning des ressources GCP Construire ou supporter les équipes de développement sur les pipelines Gitlab CI ou scripts de configurations GITOPS Construire les pipelines de synchronisations d’artifacts entre le repo source & GCP Supporter les équipes projets sur les problématiques techniques & de performances Administrer et optimiser les configurations NGINX pour le relais des flux depuis le réseau Corporate Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement et de rollback
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance

Mission freelance
Data Manager Senior

RIDCHA DATA
Publiée le
BI
Dataiku
ETL (Extract-transform-load)

1 an
380-500 €
Paris, France
🎯 1. Contexte du projet Une organisation du secteur assurance de personnes est en pleine transformation digitale avec : Migration vers Google Cloud Platform (GCP) Adoption de Dataiku pour la préparation des données 👉 Objectifs : Moderniser la plateforme Data Mettre en place une gouvernance data Accompagner les métiers dans l’exploitation des données 🧩 2. Missions principales🔹 Data Management Mise en place de la gouvernance des données Gestion de la qualité des données (Data Quality) Structuration et fiabilisation des flux de données 🔹 Data Engineering & BI Préparation des données avec Dataiku Traitement et intégration sur Google Cloud Platform Création de reporting et dashboards 🔹 Accompagnement au changement Formation des utilisateurs Aide à l’adoption des outils data Support et communication avec les équipes métiers 🛠️ 3. Compétences techniques attendues SQL / ETL / BI Plateforme Cloud : Google Cloud Platform Data préparation : Dataiku Gouvernance Data Data Quality 🧠 4. Compétences fonctionnelles Connaissances en assurance (vie, retraite, prévoyance) = un plus 👉 Sinon : capacité à comprendre rapidement un métier 🤝 5. Soft skills Autonomie Rigueur Bon relationnel
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

422 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous