Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Votre recherche renvoie 56 résultats.
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Offre d'emploi
Data Engineer Adtech Big Query
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
Offre d'emploi
Offre de mission d'un Recetteur et Analyst QOD sur Paris
EterniTech
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
QA
3 mois
Paris, France
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris Contexte de la mission : Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end) La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD). Objectifs/Descriptif de mission : Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à : 1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints. 2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle). 3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid). 4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers. Livrables attendus Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling) Cartographie des anomalies sources (Identification de la "Dette Data" amont) Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint Ingénierie des tests et implémentation QoD (Framework Hydra) : Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés) Intégration des règles de Qualité (QoD) dans le code ELT (Hydra) Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint) Recette Backend & Validation des livrables Core Team Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira). Requêtes SQL de validation finale (UAT Backend) Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.) Monitoring de la Dette Data & Exposition (Cockpit QoD): Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client). Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review Compétences requises Compétences et expériences obligatoires : SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies. Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles. Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique. Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots). Compétences souhaitées Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile). Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra). Savoir-être : Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases). Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont. Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers. Pragmatisme : Livrer de la valeur incrémentale. Expérience : > 7 ans Localisation : 16 Rue du Général Alain de Boissieu A Exclure : Ce que nous ne cherchons PAS : PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données. PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL). PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Offre d'emploi
Senior Analytics Engineer
AVA2I
Publiée le
CI/CD
MySQL
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation Data au sein d’un environnement Banque de Financement et d’Investissement, nous recherchons un Senior Analytics Engineer afin de rejoindre une équipe en charge du développement de plateformes analytiques et de data products à forte valeur métier. Le programme vise à moderniser les usages Data & Analytics autour des activités de financement et de distribution, avec des enjeux forts autour : de la qualité et de la traçabilité des données, des contraintes réglementaires, du pilotage des portefeuilles, de l’industrialisation des usages analytiques, et de l’amélioration de la performance opérationnelle. Le consultant interviendra dans un environnement transverse en collaboration avec les équipes métier, risques, finance, architecture data et IT. MissionsConception & Modélisation Analytics Concevoir et maintenir des data products analytiques sur Google Cloud Platform Construire des modèles analytiques dénormalisés (star schema, data marts, data products) Traduire les besoins métiers complexes en datasets exploitables et industrialisés Définir les modèles physiques analytiques à partir des modèles conceptuels fournis Optimiser les structures analytiques selon les usages métiers et les contraintes de performance Data Engineering & ELT Développer et maintenir les pipelines ELT avec dbt, BigQuery et Airflow Industrialiser les traitements de transformation et d’exposition de données Optimiser les performances BigQuery : partitionnement clusterisation optimisation des coûts optimisation des temps de traitement Garantir la robustesse et la maintenabilité des traitements Analytics Métier Risk & Finance Concevoir des datasets permettant : le pilotage de la performance des portefeuilles de financement, le suivi des expositions et de la consommation des ressources rares, l’analyse des indicateurs de liquidité, capital et RWA, l’analyse de l’activité commerciale et des pipelines métier. Le consultant sera garant : de la cohérence fonctionnelle des indicateurs, des règles d’agrégation et de calcul, de la traçabilité des transformations, de la qualité des données exposées. Qualité & Gouvernance Data Mettre en œuvre les contrôles de qualité de données : dbt tests, contrôles de cohérence, complétude, fraîcheur des données Contribuer à la documentation fonctionnelle et technique Participer à la définition des standards de modélisation et de développement Assurer la traçabilité des sources et des transformations Collaboration & Delivery Travailler en étroite collaboration avec : les équipes métier, la MOA, les équipes risques et finance, l’architecture data, les équipes IT & plateformes Participer aux phases de : tests techniques, tests fonctionnels, intégration, performance, UAT Être référent analytics sur son périmètre Être force de proposition sur les usages data et analytics
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
Data & AdTech Developpeur H/F
OBJECTWARE
Publiée le
Python
SQL
3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Expert SQL Sénior / Data Engineer DBT
Signe +
Publiée le
Google Cloud Platform (GCP)
5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Offre d'emploi
Datas & AdTech Developper H/F
CELAD
Publiée le
40k-45k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Datas & AdTech Developper H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une entité spécialisée dans la valorisation de la donnée et des leviers publicitaires. Dans un environnement Data en forte évolution, vous contribuez à la construction et à l’optimisation d’une Customer Data Platform (CDP), avec des enjeux forts autour de l’exploitation des données, de l’automatisation des traitements et de l’activation marketing sur différents canaux. Une présence régulière sur site est requise. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Construire et maintenir les flux de données nécessaires à la CDP - Développer et maintenir les scripts d’ingestion de données (Python, SQL BigQuery) - Structurer et exploiter la donnée pour la rendre accessible aux équipes métiers - Concevoir des dashboards pour piloter la performance et la monétisation des données - Automatiser les traitements et développer des outils internes (notamment via des solutions IA) - Intégrer des solutions AdTech (DSP, tracking, audiences) pour le ciblage et l’activation des campagnes
Mission freelance
Data Engineer Python / Big Data
STHREE SAS
Publiée le
Big Data
Data Engineering
PySpark
6 mois
Paris, France
Notre client est un acteur majeur du secteur bancaire, reconnu pour sa capacité d’innovation et sa transformation digitale. Dans le cadre du renforcement de ses équipes Data au sein des Risques de Marché , nous recherchons un(e) Data Engineer Python / Big Data . Intégré(e) à une équipe Agile, vous interviendrez sur des projets stratégiques liés aux calculs réglementaires et à la transformation des plateformes data vers des architectures temps réel. Vos responsabilités : Concevoir et développer des pipelines de données performants (Python, PySpark) Participer à l’ évolution du Data Warehouse Optimiser les flux de données et améliorer les performances de traitement Mettre en place des solutions de monitoring et d’alerting temps réel Développer des dashboards de suivi (Power BI, Elasticsearch) Garantir la qualité, la fiabilité et la traçabilité des données Participer à l’industrialisation des traitements (CI/CD, automatisation) Collaborer avec les équipes métiers (risques, finance) Environnement technique Langages : Python, SQL Big Data : PySpark, Kafka Cloud : GCP (BigQuery) Orchestration : Airflow, DBT DevOps : Docker, Jenkins, Terraform / Terragrunt, CI/CD BI / Monitoring : Power BI, Elasticsearch Outils : Git, Linux Méthodologie : Agile / Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
56 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois