Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Votre recherche renvoie 57 résultats.
Mission freelance
POT9037 - Un Directeur de projet / programme sur IDF.
Almatek
Publiée le
BigQuery
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Directeur de projet / programme sur IDF. Dans le cadre de l’optimisation du calcul des primes d’assurances, la Direction Juridique (Assurances Groupe) met en place un outil de gestion des primes d’assurance pour les biens du groupe. Pour fonctionner, cet outil doit être alimenté par des données fiables et pérennes issues des différents référentiels du système d’information (Immobilier, RH, Finance, Technique...). La prestation consiste à identifier, sécuriser et documenter l’alimentation en données de l’outil, avec les activités suivantes : Identification : lister l’ensemble des données référentielles nécessaires au calcul. Localisation : identifier les sources de vérité (Golden Sources) dans le SI. Gouvernance : définir le processus de maintien et le RACI pour chaque donnée (le cas échéant). Dictionnaire de données métier : définition, format et règles de gestion. Cartographie des flux en lien avec les architectes d’entreprise et les architectes solutions. Matrice RACI de maintenance : identification des Responsables, Acteurs, Consultés et Informés pour la mise à jour de chaque donnée. Plan de qualité des données : diagnostic de l’existant et recommandations de maintien.
Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)
HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL
12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Offre d'emploi
Data Analytics Engineer Senior F/H
ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)
Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Offre d'emploi
Développeur(se) Fullstack IA (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Ansible
40k-55k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Offre d'emploi
Développeur Python DevOps GCP (H/F)
STORM GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Jenkins
3 ans
50k-54k €
400-420 €
Île-de-France, France
Contexte : Nous recherchons un/une développeur/développeuse Python DevOps GCP pour renforcer nos équipes. Missions : Vous serez amené(e) à réaliser les tâches suivantes : La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Participer à des projets avec de fortes contraintes techniques, de sécurité et de performances.
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer
Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer
3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
Senior Looker / LookML Developer
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Mission freelance
BI Engineer
CAT-AMANIA
Publiée le
Azure
BigQuery
Microsoft Power BI
6 mois
380-450 €
Toulouse, Occitanie
Dans le cadre du développement et de la modernisation de ses capacités analytiques, l’organisation souhaite renforcer son expertise BI. La mission vise à mettre en place et structurer Power BI Service , développer des dashboards stratégiques, optimiser les modèles de données et intégrer les premières briques d’IA (Copilot, agents IA) au sein des usages Power BI. Le BI Engineer sera responsable de la configuration complète de l’environnement Power BI Service, de la création des dashboards métiers et de l’intégration des fonctionnalités avancées (DAX, modélisation, Copilot/IA). Il accompagnera également la montée en maturité des équipes internes via la documentation et le transfert de compétences. MISSIONS Installer et configurer Power BI Service (tenant, workspaces, sécurité, accès). Connecter Power BI aux différentes sources de données internes (BigQuery, API…). Concevoir, modéliser et développer des dashboards Power BI performants et ergonomiques. Optimiser les modèles de données : Power Query , DAX , architecture et performance. Documenter les réalisations et accompagner les équipes utilisatrices. Créer ou intégrer des agents IA et mettre en place les fonctionnalités Copilot dans Power BI .
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Offre d'emploi
Consultant DATA (Talend DI / ESB / GCP)
adbi
Publiée le
BigQuery
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)
45k-57k €
Île-de-France, France
Dans le cadre de ses activités DATA, la DSI du Groupe recherche un profil consultant Data pour l'aider à répondre aux différentes sollicitations de ses métiers. Nous attendons ici une expérience significative en Big Query / Data Studio (ex Looker Studio) / Talend. Objectifs et livrables Au sein des équipes Echanges, Data Architecture et Datavisualisation du pôle Data de la DSI du Groupe, les tâches de la mission sont : - Développer des flux de données Talend (DI/ESB) - Participer à la migration Talend vers la version supérieure - Développer des IHM en Java - Concevoir et mettre en oeuvre le modèle de données décisionnel à partir des données applicatives remontées dans BigQuery - Préparer et transformer les données dans BigQuery - Concevoir et mettre à disposition des Objets Métier - Définir et mettre en oeuvre des règles de Data Quality - Développer des rapports Google Data Studio (ex Looker Studio) - Rédiger des spécifications techniques - Participer à la recette technique et fonctionnelle - Assurer une maintenance et un support des solutions mises en oeuvre
Offre d'emploi
Architecte Power BI
KLETA
Publiée le
BigQuery
DAX
PowerBI
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Architecte Power BI pour définir et piloter l’évolution des plateformes BI et analytiques de l’entreprise. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez une trajectoire cible alignée avec les enjeux métiers, techniques et opérationnels. Vous guiderez la conception de modèles de données robustes (modélisation dimensionnelle, semantic layer, Fabric/Power BI Premium lorsque pertinent) et définirez des standards de développement, de performance et de sécurité. Vous serez responsable des choix structurants en matière de gouvernance des workspaces, de gestion des datasets, de stratégie de rafraîchissement et de maîtrise des coûts. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et métiers pour garantir une cohérence entre ingestion, transformation et restitution des données. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture BI et l’accompagnement des équipes dans l’adoption des meilleures pratiques Power BI et data-driven.
Mission freelance
Un(e) ML Engineer / MLOps Engineer
Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI
6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
57 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois