Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Offre d'emploi
Data engineer / Data analyst / Javascript
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Développeur DBA / Javascript / Data engineer / data analyst pour intervenir sur une mission stratégique au sein de la Direction Infrastructure d’un grand acteur de la distribution. Ce que vous ferez : Rattaché(e) à l’équipe Performance Opérationnelle , vous contribuerez à la mise à disposition et à l’exploitation des indicateurs de performance et rapports de production pour l’ensemble des départements de la Direction Infrastructure . Vos missions principales seront : Collecter, consolider et fiabiliser les données de production et d’exploitation IT ; Concevoir et automatiser des tableaux de bord et rapports de performance destinés aux managers et directions opérationnelles ; Analyser les indicateurs pour mesurer les résultats versus les objectifs stratégiques de la direction ; Identifier les leviers d’ amélioration de la performance et de la qualité de service ; Accompagner les équipes techniques dans la mise en place de plans d’action pour optimiser les opérations ; Participer à l’évolution des outils de reporting, d’analyse et de suivi de la performance. Ce rôle clé vous permettra de contribuer activement à la transformation et à l’excellence opérationnelle des infrastructures IT, au service de la performance globale des métiers de notre client.

Mission freelance
Data Analyst (H/F)
Dans le cadre du développement d’une stratégie data autour du domaine de la Seconde main , nous recherchons un·e Data Analyst expérimenté·e pour accompagner les équipes dans la modélisation de données , l’ analyse métier et la construction de tableaux de bord décisionnels sous Power BI. Vous interviendrez en binôme avec un·e Data Engineer, au sein d’un environnement agile et stimulant. 🔍 Objectifs de la mission Comprendre les enjeux business et challenger les besoins exprimés par les équipes métier. Traduire les problématiques fonctionnelles en modèles analytiques pertinents. Concevoir des modèles de données performants, adaptés à la restitution (couches d’exposition). Créer, maintenir et faire évoluer des dashboards Power BI, avec une approche centrée utilisateur. Collaborer étroitement avec le/la Data Engineer pour garantir qualité, cohérence et performance des flux de données. Participer activement aux rituels agiles de la squad.

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)

Mission freelance
Data Engineer MongoDB, PostgreSQL, BigQuery
Secteur Ritail Attendu : Elaboration des modèles de données en collaboration avec les architectes data. Il s’appuie sur sa compréhension des problématiques fonctionnelles et son expertise technique. Il assure la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Il participe à l’évolution du socle data de l’équipe en fonction des besoins. Il est garant de la couverture des tests data. Il est co-responsable de la qualité des données et participe aux redressements de données. Il participe à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Il prend part à la guilde des Data Engineers pour échanger avec ses homologues et s’imprégner des bonnes pratiques. Il assure une documentation complète des pipelines de données qu’il met en place. Il participe activement au RUN data / analyse de problèmes en Production.

Offre d'emploi
Data Analyst
Au sein de la Direction Infrastructure, vous aurez pour mission de collecter, analyser et restituer les données pour faciliter la prise de décision. Votre rôle Analyse & gestion des besoins Collaborer avec les différents départements pour comprendre leurs besoins d’analyses, de rapports et d’indicateurs Les formaliser en spécifications fonctionnelles claires et adaptées Développement & automatisation de reporting Assurer le développement et le paramétrage des rapports Automatiser l’alimentation de rapports (Google Slides) à partir des données BigQuery (via JavaScript/Appscript) Gestion & optimisation des données Concevoir, optimiser et maintenir les tables et pipelines de données alimentant le Datalake de la Direction (Google BigQuery) Développer des requêtes SQL avancées pour extraire, transformer les données et alimenter les outils de reporting Proposer des solutions techniques innovantes pour analyser les données ou simplement contourner les limitations des outils Google Documentation & suivi Mettre à jour la documentation technique et fonctionnelle des solutions mises en place Assurer le suivi et le reporting de son activité via les outils de gestion des projets (Jira)

Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.
Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Mission freelance
Mission Freelance – Data Engineer (GCP / Python / BigQuery)
Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban

Offre d'emploi
Concepteur Développeur Data (Lille : Villeneuve-d'Ascq)
Vous rejoindrez une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps). Vous travaillerez sur un use case dédié en collaboration avec les équipes Data et vous adopterez une approche FinOps visant à maîtriser et réduire les coûts. Votre rôle BUILD – Développement Participer aux projets data Supply en tant qu’interlocuteur.trice clé Concevoir des solutions en respectant les normes et framework data Développer et modéliser sous la gouvernance de l'architecture data Contribuer au développement d'applications Réaliser les tests Produire les reportings RUN – Maintien en condition opérationnelle Assurer le maintien en condition opérationnelle des 4 référentiels de données opérationnels (RDO) multi sourceurs et de 15 applications) Gérer les incidents et proposer des solutions correctives Mettre en production (via Git) Suivre les flux EXPERTISE Développer votre expertise sur le système d’information et la Supply Proposer des améliorations techniques et des optimisations Partager vos connaissances et bonnes pratiques

Mission freelance
DATA ENGINEER Cloud GCP
CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Mission freelance
PO data - GCP/Power BI - Supply
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery. Vous avez une bonne connaissance de Power BI dans l’idéal. Vous avez déjà travaillé autour sur des sujets liés à la Supply. Démarrage : courant novembre Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Répartition de l'activité : Product Owner de l’équipe Data/BI (75% de l’activité) Responsable du Release management du département Data/BI (25% de l’activité) L'équipe Data est en charge de : L'ingestion des données dans notre Dataplatform La gestion des couches basses (Raw, Normalized) de notre Dataplatform La gestion des flux de données pour les équipes Data&BI en charge de la couche Harmonized Du Versioning Du release management du département Data&BI L'automatisation des tests et des bonnes pratiques de QA du train Data&BI Compétences nécessaires : Bonne connaissance de BigQuery (Google Cloud Platform) et du concept de Dataplatform Expérience en SQL, modélisation de données et intégration de données Expérience autour de Power BI souhaitée Expérience en environnements Agile, avec une solide compréhension des principes et pratiques Agile A bientôt,

Mission freelance
Data Scientist
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

Mission freelance
Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI
Bonjour, Nous recherchons pour notre client grand compte un Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DAN/4919 dans l’objet de votre message Le pôle performance d’une direction data recherche une prestation de data analyse pour : accompagner les équipes Produit dans l’analyse d’impact de leurs activités assurer le run de l’activité de reporting automatique Activités principales de la prestation Accompagnement stratégique des équipes Produit & Métiers (80 %) Assurer un coaching régulier des équipes Produit (centrales et régionales) pour renforcer l’intégration de la donnée dans la décision, la roadmap et la priorisation. Réaliser des analyses d’impact des produits et services digitaux à partir des outils analytics (Piano Analytics, eStat Streaming, Nielsen) en lien avec les équipes Études. Identifier les besoins de tracking, construire les prérequis analytiques et suivre leur implémentation auprès des équipes techniques. Aider à identifier et définir les KPIs clés et garantir la cohérence transverse des indicateurs suivis. Identifier les besoins de reporting, structurer des tableaux de bord sur mesure et assurer leur appropriation par les équipes. Production et maintenance de reportings automatisés (20 %) Garantir le bon fonctionnement des dashboards existants sur Power BI et faire évoluer les modèles si nécessaire. Concevoir de nouveaux rapports Power BI : recueil du besoin, sourcing de la donnée, requêtage, prototypage/maquettes, validations itératives

Mission freelance
Data Engineer – GCP / BigQuery / DBT
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Offre d'emploi
Data Analyst – BigQuery & Power BI (5-7 ans d’expérience)
Dans le cadre du renforcement d’un programme Data & IA à l’échelle internationale, nous recherchons un Développeur Confirmé Power BI . Vous serez intégré(e) au Centre d’Excellence BI et interviendrez sur la mise en œuvre de la roadmap Analytics & IA couvrant différents périmètres : Marketing, Sales, R&I for Growth, Supply Chain, Manufacturing et Purchasing for Operations . Vos responsabilités : Développement & innovation Concevoir et développer des rapports, dashboards et visualisations interactives dans Power BI , à partir de données BigQuery (GCP) manipulées en SQL . Industrialiser et fiabiliser la production des reportings à forte valeur métier (pilotage commercial, performance supply chain, achats stratégiques, etc.). Réaliser des MVP et POC sur des sujets IA & analytics avancés. Capitaliser sur les nouveautés Power BI pour améliorer l’expérience utilisateur. Architecture & gouvernance Définir les architectures cibles adaptées aux besoins métiers. Administrer le tenant Power BI, les capacités Premium, et assurer une gouvernance technique robuste. Diffuser les bonnes pratiques de datavisualisation (ergonomie, storytelling, UX). Collaboration & animation Accompagner les Product Owners sur l’usage optimal des outils. Animer la communauté DataViz interne (Teams, Yammer), favoriser l’adoption et partager les best practices. Suivre l’adoption des solutions via KPIs et feedback utilisateurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.