Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Votre recherche renvoie 61 résultats.
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Data Analyst Expert
Codezys
Publiée le
Big Data
BigQuery
Data science
12 mois
Lille, Hauts-de-France
Notre Data Analyst devra : Concevoir, développer et mettre en œuvre des modèles d’analyse territoriale afin d’identifier les variables clés influençant les dynamiques locales. Exploiter des données variées telles que les données socio-démographiques, environnementales, concurrentielles, économiques et de marché pour établir des corrélations et réaliser des prédictions. Principales missions : Collecter, nettoyer et structurer des données provenant de sources diverses, qu’elles soient internes ou externes (Systèmes d’Information Géographique, bases démographiques, données climatiques, données de marché, etc.). Développer des modèles statistiques et d’apprentissage automatique pour analyser les relations entre variables et anticiper les évolutions territoriales. Collaborer avec le Chargé d’étude en géomarketing afin d’intégrer des données géospatiales dans les analyses. Concevoir des tableaux de bord interactifs (notamment avec Power BI) et élaborer des visualisations pour faciliter la compréhension des résultats par les décideurs (cartes, graphiques, etc.). Travailler en étroite collaboration avec les experts métier pour affiner les hypothèses, valider les modèles et garantir la pertinence des analyses. Analyse et contact avec le métier : Transformer les besoins métiers en indicateurs pertinents et identifier les sources de données appropriées pour y répondre. Analyser les dynamiques croisées des territoires, notamment en matière socio-démographique, économique, immobilière, environnementale, concurrentielle et de mobilité. Convertir les résultats analytiques en livrables clairs, pédagogiques et exploitables pour les équipes décisionnelles. Gestion des données et traitement : Rédiger des requêtes SQL complexes pour la préparation et l’analyse des données. Garantir la fiabilité, la cohérence et la traçabilité des analyses produites. Participer à l’industrialisation et à la fiabilisation des données à forte valeur ajoutée, en assurant leur architecture et leur modélisation.
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Offre d'emploi
DATA ENGINEER / TECH LEAD
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Toulouse, Occitanie
Titre : Ingénieur Data Senior - Domaine Cargo DWH Contexte Renforcement de l'équipe Data Warehouse Cargo . Mission LCM (maintenance) + évolutions/projets nouveaux. Chargé de données ticketing/réservations, finances et opérationnel pour le domaine Cargo. Interface directe avec business, architecture, OPS. Stack Technique Actuel (répartition quotidienne) : ETL : PowerCenter (20%) SQL/Scripting : Teradata + BTEQ/Shell (50%) OS : Linux (10%) Reporting : SAP BI4 + PowerBI (20%) Prochaines évolutions : ETL : IDMC (20%) SQL/Scripting : BigQuery + Dataproc/Terraform (60%) Reporting : SAP BI4 + PowerBI (20%) Compétences soft clés : Communication, autonomie, adaptation, analyse complexe, coordination stakeholders.
Mission freelance
Data Analyste Data Engineer GCP Power BI anglais 370 e
BI SOLUTIONS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
2 ans
210-370 €
Île-de-France, France
Data Analyste Data Engineer GCP Power BI anglais 370 e Datamart & Reporting : Niveau Avancé. ● Dataviz : Maîtrise avancée et obligatoire de Looker Studio (Google Datastudio) et connaissance de PowerBI. ● Bases de données & Requêtage : SQL (Confirmé) et BigQuery (Avancé). KQL est un plus ● Cloud : Connaissances de base sur Google Cloud Platform (GCP - Élémentaire), Microsoft Fabric est un plus ● ETL : Connaissance des principes ETL et Data Fusion est un plus ● Intelligence Artificielle : Sensibilité/appét 370 e par jour
Mission freelance
Data engineer GCP
NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio
3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Mission freelance
Proxy Product Owner Data GCP (H/F) - 75
Mindquest
Publiée le
SIRH
12 mois
Paris, France
Dans le cadre du renforcement de ses équipes, notre client recherche un PPO Data GCP afin d’accompagner les projets liés aux données RH et au SIRH. La mission s’inscrit dans une logique de collaboration étroite entre les équipes métiers et la DSI, avec un fort enjeu de coordination et de pilotage. Vous intervenez en tant qu’interface entre les équipes métiers RH et les équipes techniques. À ce titre, vous : - Assurez le suivi et le pilotage des projets Data SIRH - Faites le lien entre les besoins métiers et les solutions techniques - Coordonnez les différents interlocuteurs (RH, DSI, Data) - Identifiez les risques et remontez les alertes de manière proactive - Intervenez sur les données issues du SIRH (notamment SAP SuccessFactors) - Exploitez les données dans un environnement Data (Google BigQuery) - Participez à la production et au suivi de reportings sous Microsoft Power BI - Contribuez à la gouvernance des données avec DataGalaxy
Offre d'emploi
Data Engineer GCP (H/F)
CELAD
Publiée le
42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
61 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois