Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 46 résultats.
Freelance
CDI

Offre d'emploi
Cloud FinOps Engineer GCP

KLETA
Publiée le
FinOps
Google Cloud Platform (GCP)
Reporting

3 ans
Paris, France
Nous recherchons un Cloud FinOps Engineer GCP pour piloter et optimiser les coûts cloud dans des environnements complexes et fortement industrialisés. Vous serez en charge de l’analyse détaillée des consommations GCP via Billing, Cost Management et BigQuery afin d’identifier les principaux postes de dépenses et les leviers d’optimisation. Vous travaillerez sur des stratégies de right-sizing, d’autoscaling, d’engagements (Committed Use Discounts) et d’optimisation des ressources (GKE, Compute Engine, Cloud Storage, BigQuery). Vous contribuerez à la mise en place de modèles de refacturation interne (showback/chargeback) pour responsabiliser les équipes sur leurs usages cloud. Vous développerez des tableaux de bord de pilotage financier et des mécanismes d’alerte pour anticiper les dérives budgétaires. En collaboration avec les équipes DevOps et Architecture, vous participerez à l’industrialisation des bonnes pratiques FinOps via l’automatisation et l’intégration dans les pipelines. Vous serez également un acteur clé de la sensibilisation des équipes aux enjeux de performance financière et de sobriété numérique sur GCP.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL

2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Freelance

Mission freelance
Data Product Manager/PO (Rennes)

Atlas Connect
Publiée le
BigQuery
Data Lake
Data science

12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Freelance

Mission freelance
DATA ARCHITECT (GCP)

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
580-720 €
Île-de-France, France
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Freelance
CDI

Offre d'emploi
Tech Lead Sénior Scala/Java, Kafka

BEEZEN
Publiée le
Scala

1 an
40k-62k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud (GCP ou AWS), en particulier les services tels que Cloud Storage, BigQuery, Dataproc, Kubernetes, et d'autres outils pertinents pour la gestion et le traitement de données à grande échelle Bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Connaissance approfondie des concepts d'architecture microservices et des bonnes pratiques de développement. Expérience dans l'écriture de tests unitaires et d'intégration pour garantir la qualité du code. Connaissance sur Kafka-stream, spring boot, Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Freelance

Mission freelance
Data Architecte H/F

Comet
Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Chef de Projet Technique DATA

Hexagone Digitale
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)

6 mois
Paris, France
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Freelance

Mission freelance
Developpeur fullstack expert Java spring boot

HAYS France
Publiée le
Java
PostgreSQL
Springboot

3 ans
100-450 €
Lille, Hauts-de-France
Développement Back-end & ETL Conception et développement de pipelines d'intégration (ETL). Mise en œuvre des transformations et enrichissements de données. Stack technique : Java, Spring Boot, PostgreSQL, Vue.js. Technos d’intégration : Kafka, GCP Pub/Sub, WebMethods, Buckets GCP, BigQuery. 2. Développement de l’Interface de Supervision Création d’un outil sur-mesure pour monitorer les interfaces. Développement des fonctionnalités de correction et manipulation des données. Garantir une UX simple, efficace et adaptée aux équipes opérationnelles. 3. Industrialisation & Qualité Participation à l’industrialisation (CI/CD). Rédaction de documentations techniques et modes opératoires. Rédaction de tests unitaires et d’intégration. Contribution aux choix d’architecture.
Freelance

Mission freelance
Dev Fullstack React / Python

SEDONA SVP
Publiée le
Python
React

1 an
400-550 €
Clichy, Île-de-France
Présentation de la mission En tant que Développeur Web Full Stack Senior, vous rejoindrez l’équipe de Transformation Finance Groupe afin d’intégrer l’équipe de développement en charge de nos applications web data sur mesure. Il s’agit d’un poste à fort impact, centré sur le développement, destiné à un expert spécialisé dans la conception de la « couche interface » de produits data complexes. Vous serez responsable de la transformation de besoins financiers complexes en applications et interfaces web performantes, scalables et sécurisées. Vous ferez le lien entre les données brutes stockées dans BigQuery et l’expérience utilisateur finale, en intégrant des analyses Looker (et Power BI) et en développant des fonctionnalités interactives personnalisées. Vous n’êtes pas simplement un « développeur web » : vous êtes un ingénieur logiciel conscient que la donnée est au cœur de l’application. 80 % DE FRONT à faire Responsabilités principales Développement d’applications web sur mesure : Concevoir et développer des applications web responsives et fortement orientées données en utilisant React et Python. Concevoir des filtres avancés et des composants UI personnalisés interagissant dynamiquement avec les couches de données. Analytique embarquée & orchestration d’API : Piloter l’intégration de Looker dans les applications web via les SDK et API Looker. Être garant d’une expérience « Looker-as-a-Service » fluide, en assurant une communication parfaite entre l’interface utilisateur et la couche analytique. Backend & intégration des données : Développer des services backend robustes en Python pour gérer l’orchestration des données, l’authentification des utilisateurs et la gestion des API. Optimiser les échanges entre le frontend et Google BigQuery. Infrastructure cloud & déploiement : Gérer le cycle de vie des applications sur Google Cloud Platform (GCP), en assurant des déploiements conformes aux bonnes pratiques en matière de performance, sécurité et scalabilité (Cloud Run, App Engine, etc.). Sécurité & gouvernance : Mettre en œuvre des protocoles de sécurité stricts (SSO, OAuth, IAM) pour le traitement de données financières sensibles du groupe, en garantissant la persistance de la sécurité au niveau des lignes (Row Level Security – RLS) de la couche data jusqu’à l’interface web. Philosophie « Software First » : Maîtriser le contrôle de version (Git) et les principes CI/CD. Appliquer les principes DRY (Don’t Repeat Yourself) et d’architecture atomique pour les composants frontend. Privilégier la maintenabilité et une architecture propre plutôt que des solutions rapides et peu robustes. Esprit d’innovation : Agir en tant qu’ambassadeur de l’IA. Utiliser de manière proactive des outils GenAI (ex. : Cursor, Claude Code, Gemini, Copilot, Figma Make, etc.) pour accélérer le développement, optimiser le code et explorer l’intégration future des LLM dans les interfaces data. Profil et compétences requis Formation : Diplôme de niveau Master en informatique, génie logiciel ou domaine technique équivalent. Une base solide de développeur est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en développement Full Stack, avec des réalisations avérées dans la conception d’applications data-driven en environnement grand compte. Stack technique principale : Frontend : Maîtrise experte de React.js et JavaScript/TypeScript. Excellente compréhension de la gestion d’état et du développement de composants UI personnalisés. Backend : Très forte expertise en Python pour la création d’API scalables. GCP / BigQuery / SQL : Maîtrise avancée de SQL pour interagir efficacement avec BigQuery en tant que source de données. Compétences comportementales : Communication : Capacité à expliquer des choix techniques et architecturaux à des interlocuteurs métiers, en français et en anglais. Autonomie : Excellente gestion du temps pour piloter plusieurs projets et parties prenantes simultanément. Exigence qualité : Approche rigoureuse des tests, de la documentation et du code propre. Présence & collaboration Localisation : Basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin de favoriser une collaboration étroite avec les équipes métiers et le core team Analytics & IA Engineering.
CDI

Offre d'emploi
Data Analyst

INFOGENE
Publiée le

50k-70k €
Neuilly-sur-Seine, Île-de-France
Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, fournies par les Business Product Owners, en produits performants, évolutifs et sécurisés. Vous interviendrez dans un environnement multi‑projets, nécessitant une rigueur technique exemplaire et une communication fluide aussi bien avec les équipes data engineering qu’avec les parties prenantes métiers, dans un contexte de finance d’entreprise à l’échelle du groupe. Responsabilités principales Advanced Analytics Engineering : Construire et optimiser la couche sémantique via une maîtrise experte du LookML. Concevoir des modèles BigQuery en tant que sources de données Looker, en appliquant des principes d’ingénierie logicielle : modularité, réutilisabilité et maintenabilité. Exécution & Qualité : Transformer des spécifications en data products robustes, garantissant performance, optimisation des coûts et conformité aux meilleures pratiques architecturales long-terme. Solutions embarquées & API : Architecturer l’intégration de Looker dans des applications web via les APIs/SDKs Looker, pour relier données et interfaces personnalisées. Sécurité & Gouvernance : Maîtriser les concepts et protocoles de sécurité afin de gérer des données financières sensibles. Gestion multi‑projets : Naviguer entre plusieurs flux simultanés, assurer une livraison ponctuelle et une communication proactive sur les blocages techniques ou choix architecturaux. Esprit d’innovation : Promouvoir l’usage de l’IA pour booster l’efficacité. Exploiter proactivement les outils GenAI pour accélérer l'écriture de code, l’optimisation SQL et la documentation automatique. Stack technique principale Looker : Maîtrise experte du LookML (approche modulaire via refinements et extends), connaissance des APIs Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts, et solides compétences en data modeling.
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Freelance
CDI

Offre d'emploi
Senior Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
Apache Airflow
Automatisation

2 ans
Paris, France
Missions principales Concevoir et faire évoluer des architectures data cloud sur AWS Développer et maintenir des pipelines data fiables et performants (batch & orchestration) Industrialiser les traitements data et API de services data Participer aux choix d’architecture, aux bonnes pratiques et à la gouvernance data Collaborer étroitement avec les équipes Analytics, BI et IA Contribuer à l’automatisation, à la qualité et à l’observabilité des chaînes data Cloud & Data AWS (Redshift, services managés) Terraform (Infrastructure as Code) Airflow (orchestration) Développement Python FastAPI Docker Atouts bonus Expérience GCP (BigQuery, services data) Exposition ou projets autour de l’ IA agentique (LLM, agents, automatisation intelligente, pipelines IA)
46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous