Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Votre recherche renvoie 46 résultats.
Mission freelance
Data Engineer (H/F) - 75
Mindquest
Publiée le
Apache Airflow
Apache Spark
BigQuery
3 mois
Paris, France
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Offre d'emploi
Data Engineer GCP
Lùkla
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Offre d'emploi
Data Ingénieur H/F
SMARTPOINT
Publiée le
Apache Spark
BigQuery
Gitlab
3 ans
50k-60k €
500-550 €
Île-de-France, France
Prestation de l'équipe : Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Offre d'emploi
Data Engineer GCP
Lùkla
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Data Steward
Groupe Aptenia
Publiée le
BigQuery
Data governance
RGPD
3 ans
Paris, France
Nous recherchons un Data Steward expérimenté , opérationnel et proactif, capable de prendre en main la gouvernance data et d’être le lien privilégié entre les métiers et les équipes Data. Nous pouvons valider votre intégration la semaine prochaine, pour un démarrage en Février ✅ Déployer la gouvernance data : qualité, métadonnées, gestion des accès. ✅ Assurer la qualité des données : définition des règles, contrôles, suivi des anomalies, plans de remédiation. ✅ Gérer les métadonnées : glossaire métier, cohérence, respect des standards et bonnes pratiques. ✅ Garantir les accès & la conformité : sécurité, RGPD, gestion des données sensibles, coordination avec les équipes. ✅ Animer la gouvernance : communication, accompagnement, support aux Data Owners & Data Champions. ✅ Piloter le domaine data : suivi des Data Sets, conformité, documentation, gouvernance quotidienne.
Mission freelance
Développeur Search Engine (ElasticSearch (Elastic Cloud) & Node.js)
HAYS France
Publiée le
Amazon Elastic Compute Cloud (EC2)
BigQuery
Elasticsearch
3 ans
100-550 €
Lille, Hauts-de-France
Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique : ElasticSearch (Elastic Cloud) Node.js avec NestJS en TypeScript BigQuery pour l’analyse data Google Cloud Platform (GCP) Compétences requises (Hard Skills) : Expertise approfondie en ElasticSearch (usage avancé, optimisation, performance). Maîtrise de Node.js et TypeScript . Connaissance des principes du Software Craftsmanship . Compétences en analyse de données et requêtes SQL (BigQuery). Maîtrise des pipelines CI/CD et des pratiques DevOps . Bonne compréhension des méthodes agiles .
Offre d'emploi
Gestionnaire d'application
Etixway
Publiée le
BigQuery
Datadog
Mongodb
Lille, Hauts-de-France
Contrainte forte du projet Anglais indispensable Les livrables sont Indicateurs de performance des applications Rapports mensuels de suivi de la Qualité de Service Documentation applicative Compétences techniques Datadog - Confirmé - Impératif BigQuery - Confirmé - Impératif MongoDB - Confirmé - Impératif Service Now - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Être le garant de la Qualité de Service pour l’ensemble de nos applications. Encourager une approche orientée “amélioration continue” au sein de l’équipe Mettre en place et communiquer des KPIs de suivi de notre Qualité de Service : ▪ Disponibilité de nos applications (SRE) ▪ Volumes d’incidents / sollicitations par nos Business Units ▪ Temps de résolution ▪ Typologies d’incidents les plus fréquentes ▪ Monitoring & alerting sur nos Critical User Journeys (CUJ) Travailler en étroite collaboration avec le Quality Leader de l’équipe (automaticien) afin de renforcer la couverture de tests suite aux problèmes rencontrés en Production. Faire le lien avec nos parties prenantes, en interne et au sein de nos Business Units internationales, sur la Qualité de Service et les améliorations possibles de manière générale. Proposer et piloter des axes d’amélioration concrets à mettre en place, avec l’appui des Product Owners de l’équipe Contribuer activement à la documentation de nos procédures / bases de connaissances pour rendre autonomes nos parties prenantes dans l’analyse des problèmes rencontrés et la remédiation associée.. Proposer des solutions pour automatiser la résolution d’incidents, quand c’est possible.
Mission freelance
Lead Transformation Qualité & Accélération Data / IA (H/F)
Gentis Recruitment SAS
Publiée le
BigQuery
Data governance
Data quality
6 mois
Paris, France
Lead Transformation Qualité & Accélération Data / IA (H/F) Mission de conseil – Environnement Data & IA à grande échelle Contexte de la mission Au sein de la Direction Data & Digital Transformation d’un grand groupe français du secteur de la distribution , une entité Data & Analytics de grande taille accompagne les métiers (Marketing, E-commerce, Supply Chain, Finance…) dans l’exploitation de la donnée et de l’IA pour le pilotage de la performance. Cette organisation, composée de plus de 150 experts Data & IA, engage une transformation structurante visant à industrialiser ses pratiques et à positionner la Qualité comme levier clé de performance, de fiabilité et d’accélération du delivery. Objectifs de la mission Piloter la transformation vers un standard de qualité systémique sur les sujets Data & IA. Renforcer la gouvernance Data et IA , les pratiques agiles et la culture de l’excellence opérationnelle. Agir comme catalyseur de transformation , combinant vision stratégique, influence transverse et pilotage opérationnel. Missions principales Vision, stratégie et gouvernance (axe prioritaire) Définir et piloter la feuille de route Qualité & Gouvernance Data / IA. Standardiser les livrables Data, IA, code et documentation. Mettre en place une gouvernance IA conforme aux exigences réglementaires (RGPD, AI Act). Structurer et faire évoluer les méthodes et outils (Agilité, DataOps). Leadership et conduite du changement Diffuser une culture de la qualité orientée performance et accélération du delivery. Coacher les équipes et animer les communautés de pratiques (DataOps, Agilité, Qualité). Assurer l’alignement avec les autres entités technologiques du groupe. Pilotage opérationnel Structurer les processus qualité (Data Quality, Craftsmanship, Agilité). Définir et suivre les KPIs qualité et les indicateurs de satisfaction (NPS). Intervenir en tant que Product Owner sur des offres DataOps (priorisation, adoption). Contribuer aux sujets FinOps et au pilotage des coûts cloud. Profil recherché Compétences techniques Pilotage de la qualité et de la gouvernance dans des environnements Data/Tech complexes. Solide maîtrise de la Data Quality, du DataOps / MLOps (CI/CD, Infrastructure as Code). Bonne connaissance des environnements Cloud, notamment GCP (BigQuery, Composer). Maîtrise des enjeux réglementaires liés aux données et à l’IA (RGPD, AI Act). Leadership et vision Expérience confirmée de conduite de transformations à l’échelle (100+ personnes). Capacité à définir une vision stratégique et à la décliner en plans d’actions mesurables. Leadership transverse, posture de coach, animation de communautés. Expérience Minimum 8 ans d’expérience sur des fonctions similaires (Lead Data, CDO, Transformation Data/IA). Une expérience en transformation agile ou en change management est un atout fort. Modalités Localisation : Île-de-France (Essonne), présence sur site requise 2 à 3 jours par semaine. Durée : Mission longue, 6 mois renouvelables. Démarrage : ASAP.
Mission freelance
Consultant en systèmes d'information ( H/F )
BK CONSULTING
Publiée le
Azure DevOps
BigQuery
DAX
36 mois
400-500 €
Lille, Hauts-de-France
Missions principales Concevoir, développer et faire évoluer des solutions de Business Intelligence basées sur Power BI dans un environnement Data à grande échelle Définir et faire évoluer l’architecture Data & BI dans des environnements Cloud (Azure) Développer des modèles de données performants et des rapports Power BI complexes en s’appuyant sur le langage DAX Mettre en œuvre les opérations de préparation, transformation et analyse de données issues de plateformes cloud (notamment BigQuery – GCP) Intégrer des contenus Power BI dans des portails sécurisés et des applications métiers Garantir la qualité des livrables via la documentation technique, les standards de développement et les bonnes pratiques BI Intégrer les développements dans des chaînes d’intégration continue (Azure DevOps / Git) Déployer et maintenir les solutions BI sur différents environnements (développement, intégration, production) Participer au maintien en conditions opérationnelles des plateformes Data (BUILD & RUN) Contribuer à l’amélioration continue des outils, des processus et des pratiques Data & DevOps Accompagner et former les équipes internes et internationales sur les bonnes pratiques Power BI et Data
Offre d'emploi
Ingénieur Big Data / Bases de Données
REDLAB
Publiée le
AWS Cloud
BigQuery
Cassandra
40k-54k €
Paris, France
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Mission freelance
Lead Tech Integration & ERP
Phaidon London- Glocomms
Publiée le
API REST
BigQuery
ERP
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Assurer le rôle de référent technique pour toutes les intégrations inter-applications Définir et mettre en œuvre une architecture d'intégration cohérente Piloter les décisions techniques en garantissant la qualité, la performance, la résilience et l'évolutivité Établir les normes de développement, de déploiement et de supervision Encadrer et accompagner les développeurs Talend (revues de code, bonnes pratiques, formation) Assurer la liaison entre les équipes métiers, l'IT, l'intégration et l'infrastructure Contribuer à l'élaboration des feuilles de route techniques et de la stratégie d'intégration à long terme
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Gentis Recruitment SAS
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Offre d'emploi
Data Engineer / Data Analyst
ICSIS
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Mission freelance
DATA ENGINEER
Codezys
Publiée le
Azure
BigQuery
Business Intelligence
12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Mission freelance
Chef de projet Data
Gentis Recruitment SAS
Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics
12 mois
Paris, France
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Mission freelance
Data Engineer/ Expert GCP
Nicholson SAS
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
46 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois