Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 372 résultats.
Freelance
CDI

Offre d'emploi
Offre de mission d'un Recetteur et Analyst QOD sur Paris

EterniTech
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
QA

3 mois
Paris, France
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris Contexte de la mission : Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end) La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD). Objectifs/Descriptif de mission : Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à : 1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints. 2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle). 3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid). 4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers. Livrables attendus Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling) Cartographie des anomalies sources (Identification de la "Dette Data" amont) Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint Ingénierie des tests et implémentation QoD (Framework Hydra) : Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés) Intégration des règles de Qualité (QoD) dans le code ELT (Hydra) Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint) Recette Backend & Validation des livrables Core Team Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira). Requêtes SQL de validation finale (UAT Backend) Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.) Monitoring de la Dette Data & Exposition (Cockpit QoD): Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client). Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review Compétences requises Compétences et expériences obligatoires : SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies. Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles. Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique. Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots). Compétences souhaitées Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile). Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra). Savoir-être : Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases). Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont. Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers. Pragmatisme : Livrer de la valeur incrémentale. Expérience : > 7 ans Localisation : 16 Rue du Général Alain de Boissieu A Exclure : Ce que nous ne cherchons PAS : PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données. PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL). PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Freelance
CDI
CDD

Offre d'emploi
Data Scientist

R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python

6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Freelance
CDI

Offre d'emploi
Expertise IAG / GCP (550€ MAX)

BEEZEN
Publiée le
Agent IA
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
La prestation consiste à assurer un rôle de référent technique et méthodologique sur l’IA Générative, avec pour objectif d’industrialiser l’usage des agents intelligents au sein de l’organisation. Elle inclut notamment : Conception de la Plateforme Agentique : Architecture et mise en place d'un environnement permettant le déploiement d'agents autonomes multi-fonctions sur Google Cloud Platform (GCP) . Idéation & Use Cases : Accompagner les directions métiers dans l'identifi cation des cas d'usage à forte valeur ajoutée (automatisation de processus complexes, support client augmenté, analyse prédictive textuelle). Mise en oeuvre & Monitoring : Développer les solutions (RAG avancé, chaînage de modèles, orchestration d'agents) et mettre en place un monitoring strict de la performance Livrables : ●Catalogue des use cases métiers priorisés avec études de faisabilité. ●Architecture technique de la plateforme agentique déployée sur GCP. ●Code source des agents et intégration aux APIs métiers. ●Dashboard de monitoring de la performance et de l'éthique des solutions IAG
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI
Freelance

Offre d'emploi
Ingénieur Système Devops

NETSEC DESIGN
Publiée le
DevOps
Google Cloud Platform (GCP)

3 ans
45k-70k €
400-600 €
Boulogne-Billancourt, Île-de-France
Nous recherchons, pour notre client final grand compte, un Ingénieur DevOps Digital Backbone afin d’intervenir sur la plateforme Digital Backbone . La prestation s’inscrit dans le cadre du chapitre DevOps , dont le référent est le SDL (Solution Delivery Lead) , et se fera en collaboration étroite avec le Product Owner de l’équipe Digital Backbone . Activités attendues : Déploiement des composants et services liés au projet Digital Backbone à l’aide d’outils d’Infrastructure as Code (Ansible, Terraform). Mise en place de pipelines CI/CD afin d’automatiser le déploiement des services, de l’environnement de développement jusqu’à la production. Contribution au support opérationnel (RUN) et à la résolution des incidents en cas de dysfonctionnement. Implémentation du monitoring et des alertes pour la plateforme Digital Backbone. Rédaction et mise à jour de la documentation technique. Gestion des aspects sécurité et FinOps (optimisation des coûts) des environnements du projet. Garantie de la sécurité des processus de développement et de déploiement, en mettant en place des contrôles appropriés pour protéger les données et les actifs de l’entreprise. Livrables : Scripts et configurations permettant l’automatisation du déploiement des services. Pipelines CI/CD conformes aux exigences de sécurité et aux recommandations du chapitre DevOps. Documentation technique des composants d’infrastructure ainsi que des chaînes CI/CD. Tableaux de bord de monitoring des services Digital Backbone.
Freelance

Mission freelance
Data Quality Analyst (H/F)

Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)

3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance

Mission freelance
Chef de projet Technique (GCP/ Atlassian)

CAT-AMANIA
Publiée le
Confluence
Google Cloud Platform (GCP)
JIRA

12 mois
500-580 €
Paris, France
Vous interviendrez de la phase de projet à la mise en production, l'industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Préparer les supports de présentation technique ou de gouvernance, Participer et animer les réunions hebdomadaires techniques entre les équipes projets, production, Identifier les sujets et les actions techniques, Créer les structures de projet dans JIRA afin de suivre les projets, Préparer, suivre la mise à jour des dashboards Jira, les reportings sur les risques, décisions, Challenger les différents interlocuteurs et équipes afin de tenir les délais et plannings projets, Support des équipes techniques dans les phases de troobleshooting, Collecter, consolider les informations,
Freelance

Mission freelance
Ingé DevOps Cloud GCP

Izyfree
Publiée le
Apache Kafka
Cloud
Google Cloud Platform (GCP)

1 an
400-550 €
Yvelines, France
Nous recherchons un Ingénieur OPS DATA pour accompagner les équipes projets dans la mise en place de solutions sur notre plateforme data GCP . Missions principales: Accompagner le choix de la solution de stockage adaptée selon les besoins projets (NoSQL, relationnel, document) Optimiser les performances des solutions déployées sur Google Cloud Platform Déployer et configurer les environnements de bases de données : MongoDB, PostgreSQL , Firestore et Cloud SQL Assurer le support technique lors des phases de mise en production Surveiller l'état de santé de la base via Cloud Monitoring Gérer la restauration en cas d'incident Assurer la continuité de service Gérer les alertes et notifications Résoudre les incidents et problèmes de performance Surveiller les métriques de performance (latence, débit, coûts) Gérer l'authentification et l'autorisation des utilisateurs
Freelance

Mission freelance
Mission freelance - Dev back end Node.JS - Lille/Paris

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript

6 mois
300-450 €
Paris, France
Responsabilités : Développement des APIs de notre Back-end à destination des applications mobiles: • Tu participes aux rituels agiles et à l’amélioration continue de l’équipe • Tu contribues à la résolution des anomalies remontées par les utilisateurs • Tu prends part à la qualité, stabilité de l’application en respectant les processus de l’équipe : développement, code review / pull request, QA , déploiement) • Tu rédiges et maintiens la documentation technique du code ainsi que la base de connaissance • Tu aimes innover, faire de la veille et proposer des sujets d’innovation, entreprendre la mise en place de nouvelles technologies, méthodes… Compétences techniques : • Maîtrise du runtime NodeJS, du Typescript comme langage principal et des bibliothèques nodes usuelles • Connaissance des services cloud provider AWS et GCP (Api Gateway, Lambda, DynamoDB, MongoDB, S3, etc.). • Tu as une bonne connaissance de Git, des méthodologies de versioning telles que gitflow • Une connaissance de Vue.JS est un plus • Tu as le goût pour le travail en équipe. • Tu parles anglais Tu auras en particulier les responsabilités suivantes : • Participer à l’élaboration des spécifications fonctionnelles en tant que force de proposition technique • Prendre en charge les développements évolutifs et correctifs des applications android et de leurs outils de communication à destination de nos utilisateurs en magasin. • Établir les chiffrages sur l’expression des besoins et s’y engager. • Réaliser la partie développement en prenant en compte des normes de développement. • Création de scenarii de tests de non régression. • Tester la solution et vérifier les impacts (sécurité, flux, performance, volumétrie...). • S’assurer du bon fonctionnement de la solution dans l’environnement de production (phase pilote). • Veille technologique
Freelance
CDI

Offre d'emploi
Data Analyst Paiement / Monétique (H/F)

STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique

3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
Freelance

Mission freelance
251160/Développeur Python / GCP

WorldWide People
Publiée le
Google Cloud Platform (GCP)
Python

6 mois
Paris, France
Développeur Python / GCP Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe. Contexte / Objectifs : Mise en place du projet "Risques Climatiques & Physiques" une solution visant à ingérer, agréger et exposer des données de sources multiples afin de produire les rapports Métier sur le scope de la surveillance du risque de crédit. La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Une expérience dans le domaine du Risques de crédit est appréciée. Le projet étant stratégique et à forte visibilité, les critères d'expertises techniques décrites dans cet Appel d'Offre sont à respecter impérativement. Objectifs et livrables Expertises spécifiques : Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe.
Freelance

Mission freelance
Product Owner technique (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
JIRA

2 ans
350-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner technique (H/F) à Sophia Antipolis, France. Contexte : Au sein d'un Train SAFe d'environ 60 personnes, vous intégrez un écosystème à forte valeur ajoutée technologique. Le projet porte sur une suite de produits stratégiques stockant et exposant les données du Système d'Information en haute disponibilité et haute performance pour des partenaires internes majeurs. Les missions attendues par le Product Owner technique (H/F) : Gestion du Backlog & Stratégie : Recueillir, prioriser et suivre les exigences techniques (évolutions, optimisations, résorption de la dette technique). Rédiger les Epics et les User Stories (US) détaillées. Porter une vision produit à moyen terme (Roadmap à 3 PI). Piloter certains projets transverses en lien avec les autres équipes du train. Animation du Train SAFe : Préparer les PI Plannings en collaboration avec le Product Manager, le RTE et les autres PO. Animer les Team Breakouts et assurer la restitution orale des objectifs de l'équipe. Identifier et synchroniser les dépendances avec les autres Component Teams. Pilotage du Delivery & Qualité : Définir les objectifs de sprints et assurer le suivi des risques. Co-construire le plan de tests, réaliser les tests de validation et assurer la mise à jour de la documentation technique/fonctionnelle. Planifier les mises en production et assurer la communication post-déploiement. Methodologie : Agilité : Maîtrise confirmée du cadre SAFe et des rituels Scrum. Utilisation avancée de JIRA. Compétences - GCP : bonne compréhension de ce type de solution - S’adapter au contexte parfois changeant des projets - Cassandra : Pas de connaissances pointues en tant que Product Owner mais une bonne compréhension de ce type de BDD - Capacité à proposer des axes d'améliorations - Capacité à traduire un besoin métier - Conduite de réunion - Adapter sa communication en fonction de son interlocuteur - Culture open source - Assurer un suivi structuré et organisé - Des connaissances de base Open Search et Big Table seraient un +
CDI

Offre d'emploi
Data Analytics Engineer Senior F/H

ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Freelance

Mission freelance
Data Analyst – AI Governance

Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio

9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

372 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous