Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 61 résultats.
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
Freelance

Mission freelance
POT9037 - Un Directeur de projet / programme sur IDF.

Almatek
Publiée le
BigQuery

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Directeur de projet / programme sur IDF. Dans le cadre de l’optimisation du calcul des primes d’assurances, la Direction Juridique (Assurances Groupe) met en place un outil de gestion des primes d’assurance pour les biens du groupe. Pour fonctionner, cet outil doit être alimenté par des données fiables et pérennes issues des différents référentiels du système d’information (Immobilier, RH, Finance, Technique...). La prestation consiste à identifier, sécuriser et documenter l’alimentation en données de l’outil, avec les activités suivantes : Identification : lister l’ensemble des données référentielles nécessaires au calcul. Localisation : identifier les sources de vérité (Golden Sources) dans le SI. Gouvernance : définir le processus de maintien et le RACI pour chaque donnée (le cas échéant). Dictionnaire de données métier : définition, format et règles de gestion. Cartographie des flux en lien avec les architectes d’entreprise et les architectes solutions. Matrice RACI de maintenance : identification des Responsables, Acteurs, Consultés et Informés pour la mise à jour de chaque donnée. Plan de qualité des données : diagnostic de l’existant et recommandations de maintien.
Freelance

Mission freelance
Chef de Projet MOA – Omnicanalité / Supply Chain

ESENCA
Publiée le
AMOA
BigQuery
Pilotage

1 an
Lille, Hauts-de-France
Description de la mission Au sein d’une équipe dédiée à l’optimisation de la livraison client, vous intervenez comme expert métier pour concevoir et améliorer les processus liés à l’exécution des commandes. Missions principales1. Cadrage et formalisation Rédiger les documents de cadrage Définir les processus cibles dans le cadre de nouveaux projets ou d’évolutions Structurer les besoins métiers et les traduire en solutions opérationnelles 2. Optimisation Supply Chain Analyser les flux logistiques de bout en bout Identifier les points de friction Proposer des solutions pour améliorer la fluidité des parcours produits 3. Pilotage par la data Exploiter les données de performance (ex : BigQuery) Mesurer l’impact des optimisations Mettre en place des indicateurs pertinents 4. Amélioration continue Animer des ateliers avec les Business Units et équipes opérationnelles Diffuser les bonnes pratiques Garantir la cohérence des processus à l’échelle globale Objectif global Construire, harmoniser et optimiser les processus métiers autour de l’omnicanalité et des systèmes de gestion des commandes (OMS), en lien avec les enjeux Supply Chain. Contexte Environnement international avec des enjeux forts d’optimisation de l’expérience client et de performance logistique. Le poste s’inscrit dans une dynamique de transformation des processus liés à l’exécution des commandes (Fulfillment). Contraintes du projet Expertise métier forte en omnicanalité / Supply Chain / OMS Anglais professionnel obligatoire Compétences techniques Supply Chain – Confirmé – Impératif Formalisation de processus métiers – Confirmé – Impératif OMS (Order Management System) – Confirmé – Important Requêtes Data GCP (BigQuery) – Confirmé – Souhaitable Connaissances linguistiques Français courant – Impératif Anglais professionnel – Impératif Modalités Localisation : Poste basé dans la région lilloise Rythme : 3 jours sur site / semaine Télétravail : possible sur les autres jours
Freelance
CDI

Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)

K-Lagan
Publiée le
Big Data
BigQuery
Dataiku

1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance
CDI

Offre d'emploi
Architecte Power BI

KLETA
Publiée le
BigQuery
DAX
PowerBI

3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Architecte Power BI pour définir et piloter l’évolution des plateformes BI et analytiques de l’entreprise. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez une trajectoire cible alignée avec les enjeux métiers, techniques et opérationnels. Vous guiderez la conception de modèles de données robustes (modélisation dimensionnelle, semantic layer, Fabric/Power BI Premium lorsque pertinent) et définirez des standards de développement, de performance et de sécurité. Vous serez responsable des choix structurants en matière de gouvernance des workspaces, de gestion des datasets, de stratégie de rafraîchissement et de maîtrise des coûts. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et métiers pour garantir une cohérence entre ingestion, transformation et restitution des données. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture BI et l’accompagnement des équipes dans l’adoption des meilleures pratiques Power BI et data-driven.
Freelance
CDI

Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain

Clostera
Publiée le
BigQuery
Data analysis
Looker Studio

1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Freelance

Mission freelance
Expert(e) Métier Omnicanalité / Supply Chain / OMS

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Supply Chain

3 ans
100-550 £GB
Lille, Hauts-de-France
Missions principales1. Cadrage & Formalisation Rédiger les documents de cadrage métier. Définir les processus cibles pour les nouveaux projets ou l’évolution des outils existants. Produire des documents pédagogiques et supports de démonstration. 2. Optimisation Supply Chain Analyser les flux logistiques du stock jusqu’au client. Identifier les points de friction et proposer des solutions pour fiabiliser le parcours produit. Contribuer à la construction d’un modèle opérationnel omnicanal cohérent et partagé. 3. Pilotage par la Data Exploiter les données de performance (dont requêtes BigQuery – GCP). Mesurer l’impact des optimisations. Proposer des plans d’action pour améliorer l’efficacité opérationnelle. 4. Animation & Amélioration Continue Animer des ateliers avec les BU et plateformes logistiques. Diffuser les bonnes pratiques. Assurer la cohérence globale des processus entre les pays et entités.
CDI

Offre d'emploi
Chef(fe) de projet Master Data

adbi
Publiée le
BigQuery
Looker Studio
SQL

45k-55k €
Île-de-France, France
Contexte de la mission Au sein du Pôle DATA de la DSI, le domaine Gouvernance des Données assure le pilotage des données de référence de la Business Unit. Cette gouvernance sur notre solution de Master Data Management (MDM) développée en interne, qui centralise et administre l'ensemble du référentiel d'entreprise : organisation, centres opérationnels, matières, matériels, activités, sociétés, etc. Nous recherchons un/une chef(fe) de projet Master Data. Objectifs et livrables Gestion et administration du référentiel d'entreprise (50%) Outil principal : REFMET Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents dans l'appropriation des outils et workflows Maintenir la cohérence et l'intégrité du référentiel de données Amélioration de la qualité des données (30%) Outils : BigQuery, Looker Studio, Google Sheets Réaliser des analyses croisées multi-sources pour identifier les anomalies et incohérences Définir et prioriser les plans d'action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives Planifier et synchroniser les interventions avec l'ensemble des parties prenantes Conduite de projets d'amélioration continue (20%) Recueillir et analyser les besoins d'évolution exprimés par le Business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement) LIVRABLES ATTENDUS Documentation Spécifications fonctionnelles et recette des évolutions (REFMET) Comptes-rendus de réunions et présentations (Google Workspace) Développements Requêtes SQL (BigQuery) Tableaux de bord (Looker Studio) Accompagnement Animation d'ateliers avec les parties prenantes Support à la conduite du changement, guides utilisateurs et formations
Alternance
CDI

Offre d'emploi
Alternance - Data Analyst / Data Engineer F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Numpy

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt

CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
CDI
Freelance

Offre d'emploi
Data Scientist MLOps (H/F)

STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps

3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
CDI

Offre d'emploi
Data Engineer GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
Git

L'Île-Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
61 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous