Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Offre d'emploi
Développeur GCP expérimenté (H/F)
🎯 Missions principales Concevoir et développer des applications cloud-native sur GCP. Définir, implémenter et documenter des API performantes et sécurisées (REST, microservices). Garantir la continuité des processus métiers lors de la refonte ou de l’évolution applicative. Participer à la structuration et au traitement des flux de données (intégration, ETL, BigQuery). Collaborer avec les équipes produit et IT pour transformer les besoins en solutions techniques. Assurer la qualité du code et la maintenabilité (tests, revues de code, CI/CD). Participer aux choix techniques et contribuer à l’amélioration continue des pratiques.
Mission freelance
Chef de Projet Digital & Agile H/F/NB
🎯 CONTEXTE DE LA MISSION Nous recherchons pour un grand groupe international un(e) Chef(fe) de Projet Digital & Agile expérimenté(e) pour piloter des projets stratégiques sur une plateforme CRM & Data consommateurs. Vous interviendrez dans un environnement technique complexe, en coordination avec de nombreuses équipes et technologies, dans le cadre d'une organisation Agile mature. 🚀 MISSIONS PRINCIPALES PILOTAGE DE PROJET • Gestion end-to-end de projets digitaux complexes en méthodologie Agile • Coordination multi-équipes (techniques, métiers, partenaires) • Suivi du build solution jusqu'à la mise en production ANALYSE & SPÉCIFICATIONS • Compréhension des besoins business et pain points • Analyse d'impact et étude de faisabilité • Traduction des besoins en spécifications technico-fonctionnelles EXPERTISE TECHNIQUE • Support au build via configuration • Tests IT et validation des critères d'acceptation • Pilotage des tests d'intégration, E2E et UAT DOCUMENTATION & TRANSFERT • Documentation projet complète • Transfert d'expertise aux équipes Build, Run et métiers • Accompagnement en phase d'hypercare
Mission freelance
Tech Lead / Architecte Data
Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)

Mission freelance
Data Analyste H/F
Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Mission freelance
Data Analyst
Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues
Offre d'emploi
Data engineer H/F
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance
Offre d'emploi
Data Eng GCP Rouen
Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Mission freelance
Tech Lead Back-End Java / Kafka
Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)
Mission freelance
Consultant Power BI Senior – Expert Power BI Premium/GCP (H/F)
Nous recherchons un consultant Power BI Senior pour rejoindre un centre d’excellence BI transverse. ⚠️ Le plus important : besoin d’un senior Power BI qui connaisse le mode Import sur des gros volumes. De plus, la maîtrise du requêtage BigQuery est fortement attendue , cette technologie étant au cœur des traitements analytiques du client . Missions principales Support à l’onboarding de nouveaux projets sur Power BI Premium (bonnes pratiques). Expertise technique durant les développements (audit, optimisation, performance). Support produit sur Premium Capacity. Optimisation des rapports en Direct Query et Import. Mise en œuvre de paginated reports. Administration via Data Gateway et API REST Power BI. Collaboration avec les équipes Data sur BigQuery.
Offre d'emploi
Ingénieur DevOps GCP
Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.

Mission freelance
Tech Lead Expérimenté Mulesoft (JANV 2026 530€ MAX)
Définir les architectures d’intégration (System APIs, Process APIs,Expérience APIs). Garantir la cohérence des flux entre Salesforce, BigQuery, DQE,e-Boutique, outils de gestion et systèmes partenaires. Encadrer la mise en place des Platform Events et des mécanismes de reprise. Définir et maintenir les standards (naming conventions, versioning, BOM,guidelines CI/CD). Superviser la gouvernance des API : cycle de vie, sécurité, SLA,monitoring. Être le référent technique auprès des équipes métier et IT. Encadrer les développements MuleSoft réalisés par les équipes. Garantir la qualité des livrables (MUnit tests, SonarQube, documentation Confluence). Optimiser la plateforme CloudHub 2.0 : Private Spaces, ingress personnalisés, TLS/mTLS, monitoring. Assurer le support de niveau 2 et 3 sur les intégrations stratégiques. Faire monter en compétence (Former et accompagner) les équipes de développement sur MuleSoft. Challenger les choix techniques et proposer des solutions d’optimisation (coûts, performance, sécurité). Maîtrise de MuleSoft Anypoint Platform, CloudHub 2.0, API Manager, Runtime Manager. Solide expérience en CI/CD (GitLab, Maven, SonarQube, Anypoint CLI). Connaissance approfondie des protocoles (REST, SOAP, JMS, Event Streaming). Maîtrise des environnements Salesforce, BigQuery, systèmes batch et temps réel. Connaissances en sécurité (OAuth2, mTLS, certificats, gestion des clés). Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog…)

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Offre d'emploi
Data Analyst F/H
🎯 Vos missions : - Concevoir et développer des solutions data sur GCP (pipelines, ingestion, transformation…) - Participer aux revues de code et à la validation des choix techniques - Documenter et capitaliser les bonnes pratiques - Accompagner les utilisateurs métiers et les équipes Ops - Transmettre vos connaissances et former les équipes Compétences techniques indispensables : 🟦 Power BI Online – niveau expert (modélisation, DAX, optimisation, publication) ☁️ GCP (BigQuery, Dataform, Composer) – maîtrise confirmée 🐍 Python – pour la préparation et la validation des données 💾 SQL avancé – jointures complexes, modélisation relationnelle 🧩 Connaissance des architectures Data modernes et des bonnes pratiques de développement 📊 Bonnes notions de contrôle de la qualité des données (QDD) et de data lineage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.