Find your next tech and IT Job or contract BigQuery

Job Vacancy
DATA ENGINEER GCP DATAPLEX (01/01/2026 480€)
Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

Job Vacancy
DATA ENGINEER GCP (480€ MAX)
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets

Contractor job
Data Engineer GCP confirmé
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.

Contractor job
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Contractor job
Business Analyst DATA Modélisation HF
Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
Contractor job
Mission Freelance – Data Steward / Chef de projet Data Gouvernance
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country