Find your next tech and IT Job or contract BigQuery

Your search returns 53 results.
Contractor

Contractor job
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Published on
BigQuery
Composer
Google Cloud Platform (GCP)

6 months
540-600 €
Ivry-sur-Seine, Ile-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Contractor

Contractor job
Chef de Projet Digital & Agile H/F/NB

Comet
Published on
Adobe Campaign
Agile Method
Agile Scrum

128 days
400-650 €
Ile-de-France, France

🎯 CONTEXTE DE LA MISSION Nous recherchons pour un grand groupe international un(e) Chef(fe) de Projet Digital & Agile expérimenté(e) pour piloter des projets stratégiques sur une plateforme CRM & Data consommateurs. Vous interviendrez dans un environnement technique complexe, en coordination avec de nombreuses équipes et technologies, dans le cadre d'une organisation Agile mature. 🚀 MISSIONS PRINCIPALES PILOTAGE DE PROJET • Gestion end-to-end de projets digitaux complexes en méthodologie Agile • Coordination multi-équipes (techniques, métiers, partenaires) • Suivi du build solution jusqu'à la mise en production ANALYSE & SPÉCIFICATIONS • Compréhension des besoins business et pain points • Analyse d'impact et étude de faisabilité • Traduction des besoins en spécifications technico-fonctionnelles EXPERTISE TECHNIQUE • Support au build via configuration • Tests IT et validation des critères d'acceptation • Pilotage des tests d'intégration, E2E et UAT DOCUMENTATION & TRANSFERT • Documentation projet complète • Transfert d'expertise aux équipes Build, Run et métiers • Accompagnement en phase d'hypercare

Contractor
Permanent

Job Vacancy
Data Engineer

Proxiad
Published on
Azure DevOps
BigQuery
Google Cloud Platform (GCP)

3 years
Ile-de-France, France

Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Contractor

Contractor job
data ingnénieur

Etixway
Published on
Apache Kafka
BigQuery
Docker

1 year
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Permanent

Job Vacancy
Data engineer H/F

OPEN GROUPE
Published on
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Contractor

Contractor job
Data Analyste H/F

WHEEL OF WORK
Published on
Apache Kafka
BigQuery
ETL (Extract-transform-load)

3 years
380-400 €
Lille, Hauts-de-France

Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.

Contractor

Contractor job
Tech Lead Back-End Java / Kafka

WHEEL OF WORK
Published on
Apache Kafka
BigQuery
Github

4 months
450-510 €
Lille, Hauts-de-France

Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)

Permanent
Contractor

Job Vacancy
Data Engineer GCP

INGENIANCE
Published on
Azure DevOps
BigQuery
DBT

3 years
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Contractor

Contractor job
Tech Lead / Architecte Data

adbi
Published on
Angular
API
BigQuery

10 months
Ile-de-France, France

Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)

Contractor

Contractor job
Consultant Power BI Senior – Expert Power BI Premium/GCP (H/F)

HOXTON PARTNERS
Published on
Google Cloud Platform (GCP)
Microsoft Power BI

12 months
500-550 €
Paris, France

Nous recherchons un consultant Power BI Senior pour rejoindre un centre d’excellence BI transverse. ⚠️ Le plus important : besoin d’un senior Power BI qui connaisse le mode Import sur des gros volumes. De plus, la maîtrise du requêtage BigQuery est fortement attendue , cette technologie étant au cœur des traitements analytiques du client . Missions principales Support à l’onboarding de nouveaux projets sur Power BI Premium (bonnes pratiques). Expertise technique durant les développements (audit, optimisation, performance). Support produit sur Premium Capacity. Optimisation des rapports en Direct Query et Import. Mise en œuvre de paginated reports. Administration via Data Gateway et API REST Power BI. Collaboration avec les équipes Data sur BigQuery.

Permanent

Job Vacancy
Data Eng GCP Rouen

REDLAB
Published on
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandy

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Contractor

Contractor job
Data Analyst

Coriom Conseil
Published on
Apache Kafka
BigQuery
CI/CD

12 months
400-450 €
Lille, Hauts-de-France

Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Contractor
Permanent

Job Vacancy
Ingénieur DevOps GCP

Groupe Aptenia
Published on
CI/CD
Gitlab
Google Cloud Platform (GCP)

6 months
Lille, Hauts-de-France

Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.

Contractor

Contractor job
Tech Lead Expérimenté Mulesoft (JANV 2026 530€ MAX)

BEEZEN
Published on
MuleSoft

3 months
400-530 €
Ile-de-France, France

Définir les architectures d’intégration (System APIs, Process APIs,Expérience APIs). Garantir la cohérence des flux entre Salesforce, BigQuery, DQE,e-Boutique, outils de gestion et systèmes partenaires. Encadrer la mise en place des Platform Events et des mécanismes de reprise. Définir et maintenir les standards (naming conventions, versioning, BOM,guidelines CI/CD). Superviser la gouvernance des API : cycle de vie, sécurité, SLA,monitoring. Être le référent technique auprès des équipes métier et IT. Encadrer les développements MuleSoft réalisés par les équipes. Garantir la qualité des livrables (MUnit tests, SonarQube, documentation Confluence). Optimiser la plateforme CloudHub 2.0 : Private Spaces, ingress personnalisés, TLS/mTLS, monitoring. Assurer le support de niveau 2 et 3 sur les intégrations stratégiques. Faire monter en compétence (Former et accompagner) les équipes de développement sur MuleSoft. Challenger les choix techniques et proposer des solutions d’optimisation (coûts, performance, sécurité). Maîtrise de MuleSoft Anypoint Platform, CloudHub 2.0, API Manager, Runtime Manager. Solide expérience en CI/CD (GitLab, Maven, SonarQube, Anypoint CLI). Connaissance approfondie des protocoles (REST, SOAP, JMS, Event Streaming). Maîtrise des environnements Salesforce, BigQuery, systèmes batch et temps réel. Connaissances en sécurité (OAuth2, mTLS, certificats, gestion des clés). Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog…)

Permanent
Contractor

Job Vacancy
Data Analyst F/H

Bluescale
Published on
Google Cloud Platform (GCP)
Microsoft Power BI
Python

12 days
Seine-Saint-Denis, France

🎯 Vos missions : - Concevoir et développer des solutions data sur GCP (pipelines, ingestion, transformation…) - Participer aux revues de code et à la validation des choix techniques - Documenter et capitaliser les bonnes pratiques - Accompagner les utilisateurs métiers et les équipes Ops - Transmettre vos connaissances et former les équipes Compétences techniques indispensables : 🟦 Power BI Online – niveau expert (modélisation, DAX, optimisation, publication) ☁️ GCP (BigQuery, Dataform, Composer) – maîtrise confirmée 🐍 Python – pour la préparation et la validation des données 💾 SQL avancé – jointures complexes, modélisation relationnelle 🧩 Connaissance des architectures Data modernes et des bonnes pratiques de développement 📊 Bonnes notions de contrôle de la qualité des données (QDD) et de data lineage

Contractor

Contractor job
INGENIEUR DATA BI - GENIO

PROPULSE IT
Published on
BI

24 months
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

53 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us