Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 54 résultats.
Offre premium
CDI

Offre d'emploi
Data engineer / Data analyst / Javascript

Clostera
Publiée le
BigQuery
Javascript
Looker Studio

40k-55k €
Île-de-France, France

Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Développeur DBA / Javascript / Data engineer / data analyst pour intervenir sur une mission stratégique au sein de la Direction Infrastructure d’un grand acteur de la distribution. Ce que vous ferez : Rattaché(e) à l’équipe Performance Opérationnelle , vous contribuerez à la mise à disposition et à l’exploitation des indicateurs de performance et rapports de production pour l’ensemble des départements de la Direction Infrastructure . Vos missions principales seront : Collecter, consolider et fiabiliser les données de production et d’exploitation IT ; Concevoir et automatiser des tableaux de bord et rapports de performance destinés aux managers et directions opérationnelles ; Analyser les indicateurs pour mesurer les résultats versus les objectifs stratégiques de la direction ; Identifier les leviers d’ amélioration de la performance et de la qualité de service ; Accompagner les équipes techniques dans la mise en place de plans d’action pour optimiser les opérations ; Participer à l’évolution des outils de reporting, d’analyse et de suivi de la performance. Ce rôle clé vous permettra de contribuer activement à la transformation et à l’excellence opérationnelle des infrastructures IT, au service de la performance globale des métiers de notre client.

Freelance

Mission freelance
Data Analyst (H/F)

Anywr freelance
Publiée le
BigQuery

1 an
450-550 €
Paris, France

Dans le cadre du développement d’une stratégie data autour du domaine de la Seconde main , nous recherchons un·e Data Analyst expérimenté·e pour accompagner les équipes dans la modélisation de données , l’ analyse métier et la construction de tableaux de bord décisionnels sous Power BI. Vous interviendrez en binôme avec un·e Data Engineer, au sein d’un environnement agile et stimulant. 🔍 Objectifs de la mission Comprendre les enjeux business et challenger les besoins exprimés par les équipes métier. Traduire les problématiques fonctionnelles en modèles analytiques pertinents. Concevoir des modèles de données performants, adaptés à la restitution (couches d’exposition). Créer, maintenir et faire évoluer des dashboards Power BI, avec une approche centrée utilisateur. Collaborer étroitement avec le/la Data Engineer pour garantir qualité, cohérence et performance des flux de données. Participer activement aux rituels agiles de la squad.

Freelance

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)

skiils
Publiée le
BigQuery
DBT

3 ans
100-200 €
Maroc

Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)

CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
BigQuery
Javascript
Reporting

40k-50k €
Massy, Île-de-France

Au sein de la Direction Infrastructure, vous aurez pour mission de collecter, analyser et restituer les données pour faciliter la prise de décision. Votre rôle Analyse & gestion des besoins Collaborer avec les différents départements pour comprendre leurs besoins d’analyses, de rapports et d’indicateurs Les formaliser en spécifications fonctionnelles claires et adaptées Développement & automatisation de reporting Assurer le développement et le paramétrage des rapports Automatiser l’alimentation de rapports (Google Slides) à partir des données BigQuery (via JavaScript/Appscript) Gestion & optimisation des données Concevoir, optimiser et maintenir les tables et pipelines de données alimentant le Datalake de la Direction (Google BigQuery) Développer des requêtes SQL avancées pour extraire, transformer les données et alimenter les outils de reporting Proposer des solutions techniques innovantes pour analyser les données ou simplement contourner les limitations des outils Google Documentation & suivi Mettre à jour la documentation technique et fonctionnelle des solutions mises en place Assurer le suivi et le reporting de son activité via les outils de gestion des projets (Jira)

Freelance

Mission freelance
Data Engineer MongoDB, PostgreSQL, BigQuery

Nicholson SAS
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform (GCP)

8 mois
330 €
Lille, Hauts-de-France

Secteur Ritail Attendu : Elaboration des modèles de données en collaboration avec les architectes data. Il s’appuie sur sa compréhension des problématiques fonctionnelles et son expertise technique. Il assure la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Il participe à l’évolution du socle data de l’équipe en fonction des besoins. Il est garant de la couverture des tests data. Il est co-responsable de la qualité des données et participe aux redressements de données. Il participe à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Il prend part à la guilde des Data Engineers pour échanger avec ses homologues et s’imprégner des bonnes pratiques. Il assure une documentation complète des pipelines de données qu’il met en place. Il participe activement au RUN data / analyse de problèmes en Production.

Freelance

Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille

Almatek
Publiée le
BigQuery

6 mois
300-400 €
Lille, Hauts-de-France

Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.

CDI

Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H

Fnac Darty
Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT

Konvergence Consulting
Publiée le
BigQuery
CI/CD
Databricks

1 jour
40k-45k €
100-480 €
Paris, France

Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Freelance

Mission freelance
Mission Freelance – Data Engineer (GCP / Python / BigQuery)

Comet
Publiée le
Google Cloud Platform (GCP)

1 an
400-560 €
Île-de-France, France

Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban

Freelance

Mission freelance
PO data - GCP/Power BI - Supply

FF
Publiée le
BigQuery
Google Cloud Platform (GCP)

1 an
620-710 €
Paris, France

Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,

Freelance
CDI

Offre d'emploi
Concepteur Développeur Data (Lille : Villeneuve-d'Ascq)

Atlanse
Publiée le
Apache Airflow
BigQuery
Data Lake

3 ans
40k-45k €
400-550 €
Villeneuve-d'Ascq, Hauts-de-France

Vous rejoindrez une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps). Vous travaillerez sur un use case dédié en collaboration avec les équipes Data et vous adopterez une approche FinOps visant à maîtriser et réduire les coûts. Votre rôle BUILD – Développement Participer aux projets data Supply en tant qu’interlocuteur.trice clé Concevoir des solutions en respectant les normes et framework data Développer et modéliser sous la gouvernance de l'architecture data Contribuer au développement d'applications Réaliser les tests Produire les reportings RUN – Maintien en condition opérationnelle Assurer le maintien en condition opérationnelle des 4 référentiels de données opérationnels (RDO) multi sourceurs et de 15 applications) Gérer les incidents et proposer des solutions correctives Mettre en production (via Git) Suivre les flux EXPERTISE Développer votre expertise sur le système d’information et la Supply Proposer des améliorations techniques et des optimisations Partager vos connaissances et bonnes pratiques

Freelance

Mission freelance
DATA ENGINEER Cloud GCP

KEONI CONSULTING
Publiée le
BigQuery

18 mois
110-600 €
Paris, France

CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance

Mission freelance
Data Scientist

Cherry Pick
Publiée le
BigQuery
Python
Streamlit

3 mois
650-700 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

Freelance

Mission freelance
Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI

INSYCO
Publiée le
BigQuery
Data analysis
DAX

3 ans
550-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DAN/4919 dans l’objet de votre message Le pôle performance d’une direction data recherche une prestation de data analyse pour : accompagner les équipes Produit dans l’analyse d’impact de leurs activités assurer le run de l’activité de reporting automatique Activités principales de la prestation Accompagnement stratégique des équipes Produit & Métiers (80 %) Assurer un coaching régulier des équipes Produit (centrales et régionales) pour renforcer l’intégration de la donnée dans la décision, la roadmap et la priorisation. Réaliser des analyses d’impact des produits et services digitaux à partir des outils analytics (Piano Analytics, eStat Streaming, Nielsen) en lien avec les équipes Études. Identifier les besoins de tracking, construire les prérequis analytiques et suivre leur implémentation auprès des équipes techniques. Aider à identifier et définir les KPIs clés et garantir la cohérence transverse des indicateurs suivis. Identifier les besoins de reporting, structurer des tableaux de bord sur mesure et assurer leur appropriation par les équipes. Production et maintenance de reportings automatisés (20 %) Garantir le bon fonctionnement des dashboards existants sur Power BI et faire évoluer les modèles si nécessaire. Concevoir de nouveaux rapports Power BI : recueil du besoin, sourcing de la donnée, requêtage, prototypage/maquettes, validations itératives

Freelance

Mission freelance
Data Engineer – GCP / BigQuery / DBT

Intuition IT Solutions Ltd.
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

12 mois
Toulouse, Occitanie

Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

CDI

Offre d'emploi
Data Analyst – BigQuery & Power BI (5-7 ans d’expérience)

SILAMIR
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)

40k-60k €
Suresnes, Île-de-France

Dans le cadre du renforcement d’un programme Data & IA à l’échelle internationale, nous recherchons un Développeur Confirmé Power BI . Vous serez intégré(e) au Centre d’Excellence BI et interviendrez sur la mise en œuvre de la roadmap Analytics & IA couvrant différents périmètres : Marketing, Sales, R&I for Growth, Supply Chain, Manufacturing et Purchasing for Operations . Vos responsabilités : Développement & innovation Concevoir et développer des rapports, dashboards et visualisations interactives dans Power BI , à partir de données BigQuery (GCP) manipulées en SQL . Industrialiser et fiabiliser la production des reportings à forte valeur métier (pilotage commercial, performance supply chain, achats stratégiques, etc.). Réaliser des MVP et POC sur des sujets IA & analytics avancés. Capitaliser sur les nouveautés Power BI pour améliorer l’expérience utilisateur. Architecture & gouvernance Définir les architectures cibles adaptées aux besoins métiers. Administrer le tenant Power BI, les capacités Premium, et assurer une gouvernance technique robuste. Diffuser les bonnes pratiques de datavisualisation (ergonomie, storytelling, UX). Collaboration & animation Accompagner les Product Owners sur l’usage optimal des outils. Animer la communauté DataViz interne (Teams, Yammer), favoriser l’adoption et partager les best practices. Suivre l’adoption des solutions via KPIs et feedback utilisateurs.

54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous