Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 54 résultats.
CDI

Offre d'emploi
Développeur GCP expérimenté (H/F)

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
BigQuery
Google Cloud Platform (GCP)

50k-63k €
Bordeaux, Nouvelle-Aquitaine

🎯 Missions principales Concevoir et développer des applications cloud-native sur GCP. Définir, implémenter et documenter des API performantes et sécurisées (REST, microservices). Garantir la continuité des processus métiers lors de la refonte ou de l’évolution applicative. Participer à la structuration et au traitement des flux de données (intégration, ETL, BigQuery). Collaborer avec les équipes produit et IT pour transformer les besoins en solutions techniques. Assurer la qualité du code et la maintenabilité (tests, revues de code, CI/CD). Participer aux choix techniques et contribuer à l’amélioration continue des pratiques.

Freelance

Mission freelance
Chef de Projet Digital & Agile H/F/NB

Comet
Publiée le
Adobe Campaign
Agile Scrum
API

128 jours
400-650 €
Île-de-France, France

🎯 CONTEXTE DE LA MISSION Nous recherchons pour un grand groupe international un(e) Chef(fe) de Projet Digital & Agile expérimenté(e) pour piloter des projets stratégiques sur une plateforme CRM & Data consommateurs. Vous interviendrez dans un environnement technique complexe, en coordination avec de nombreuses équipes et technologies, dans le cadre d'une organisation Agile mature. 🚀 MISSIONS PRINCIPALES PILOTAGE DE PROJET • Gestion end-to-end de projets digitaux complexes en méthodologie Agile • Coordination multi-équipes (techniques, métiers, partenaires) • Suivi du build solution jusqu'à la mise en production ANALYSE & SPÉCIFICATIONS • Compréhension des besoins business et pain points • Analyse d'impact et étude de faisabilité • Traduction des besoins en spécifications technico-fonctionnelles EXPERTISE TECHNIQUE • Support au build via configuration • Tests IT et validation des critères d'acceptation • Pilotage des tests d'intégration, E2E et UAT DOCUMENTATION & TRANSFERT • Documentation projet complète • Transfert d'expertise aux équipes Build, Run et métiers • Accompagnement en phase d'hypercare

Freelance

Mission freelance
Tech Lead / Architecte Data

adbi
Publiée le
Angular
API
BigQuery

10 mois
Île-de-France, France

Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)

Freelance

Mission freelance
Data Analyste H/F

WHEEL OF WORK
Publiée le
Apache Kafka
BigQuery
ETL (Extract-transform-load)

3 ans
380-400 €
Lille, Hauts-de-France

Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Freelance
CDI

Offre d'emploi
Data Engineer

Proxiad
Publiée le
Azure DevOps
BigQuery
Google Cloud Platform (GCP)

3 ans
Île-de-France, France

Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-450 €
Lille, Hauts-de-France

Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Azure DevOps
BigQuery
DBT

3 ans
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

CDI

Offre d'emploi
Data engineer H/F

OPEN GROUPE
Publiée le
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance

Mission freelance
Tech Lead Back-End Java / Kafka

WHEEL OF WORK
Publiée le
Apache Kafka
BigQuery
Github

4 mois
450-510 €
Lille, Hauts-de-France

Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)

Freelance

Mission freelance
Consultant Power BI Senior – Expert Power BI Premium/GCP (H/F)

HOXTON PARTNERS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI

12 mois
500-550 €
Paris, France

Nous recherchons un consultant Power BI Senior pour rejoindre un centre d’excellence BI transverse. ⚠️ Le plus important : besoin d’un senior Power BI qui connaisse le mode Import sur des gros volumes. De plus, la maîtrise du requêtage BigQuery est fortement attendue , cette technologie étant au cœur des traitements analytiques du client . Missions principales Support à l’onboarding de nouveaux projets sur Power BI Premium (bonnes pratiques). Expertise technique durant les développements (audit, optimisation, performance). Support produit sur Premium Capacity. Optimisation des rapports en Direct Query et Import. Mise en œuvre de paginated reports. Administration via Data Gateway et API REST Power BI. Collaboration avec les équipes Data sur BigQuery.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps GCP

Groupe Aptenia
Publiée le
CI/CD
Gitlab
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France

Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.

Freelance

Mission freelance
Tech Lead Expérimenté Mulesoft (JANV 2026 530€ MAX)

BEEZEN
Publiée le
MuleSoft

3 mois
400-530 €
Île-de-France, France

Définir les architectures d’intégration (System APIs, Process APIs,Expérience APIs). Garantir la cohérence des flux entre Salesforce, BigQuery, DQE,e-Boutique, outils de gestion et systèmes partenaires. Encadrer la mise en place des Platform Events et des mécanismes de reprise. Définir et maintenir les standards (naming conventions, versioning, BOM,guidelines CI/CD). Superviser la gouvernance des API : cycle de vie, sécurité, SLA,monitoring. Être le référent technique auprès des équipes métier et IT. Encadrer les développements MuleSoft réalisés par les équipes. Garantir la qualité des livrables (MUnit tests, SonarQube, documentation Confluence). Optimiser la plateforme CloudHub 2.0 : Private Spaces, ingress personnalisés, TLS/mTLS, monitoring. Assurer le support de niveau 2 et 3 sur les intégrations stratégiques. Faire monter en compétence (Former et accompagner) les équipes de développement sur MuleSoft. Challenger les choix techniques et proposer des solutions d’optimisation (coûts, performance, sécurité). Maîtrise de MuleSoft Anypoint Platform, CloudHub 2.0, API Manager, Runtime Manager. Solide expérience en CI/CD (GitLab, Maven, SonarQube, Anypoint CLI). Connaissance approfondie des protocoles (REST, SOAP, JMS, Event Streaming). Maîtrise des environnements Salesforce, BigQuery, systèmes batch et temps réel. Connaissances en sécurité (OAuth2, mTLS, certificats, gestion des clés). Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog…)

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

CDI
Freelance

Offre d'emploi
Data Analyst F/H

Bluescale
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python

12 jours
Seine-Saint-Denis, France

🎯 Vos missions : - Concevoir et développer des solutions data sur GCP (pipelines, ingestion, transformation…) - Participer aux revues de code et à la validation des choix techniques - Documenter et capitaliser les bonnes pratiques - Accompagner les utilisateurs métiers et les équipes Ops - Transmettre vos connaissances et former les équipes Compétences techniques indispensables : 🟦 Power BI Online – niveau expert (modélisation, DAX, optimisation, publication) ☁️ GCP (BigQuery, Dataform, Composer) – maîtrise confirmée 🐍 Python – pour la préparation et la validation des données 💾 SQL avancé – jointures complexes, modélisation relationnelle 🧩 Connaissance des architectures Data modernes et des bonnes pratiques de développement 📊 Bonnes notions de contrôle de la qualité des données (QDD) et de data lineage

54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous