Find your next tech and IT Job or contract BigQuery

Your search returns 53 results.
Permanent

Job Vacancy
Data Eng GCP Rouen

REDLAB
Published on
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandy

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Contractor
Permanent

Job Vacancy
DATA ENGINEER GCP

UCASE CONSULTING
Published on
BigQuery
Google Cloud Platform (GCP)
MySQL

6 months
40k-71k €
400-630 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Contractor

Contractor job
Consultant Dataiku h/f

Freelance.com
Published on
BigQuery
Dataiku
Informatica

3 months
400-600 €
Vélizy-Villacoublay, Ile-de-France

Dans le cadre d’une initiative stratégique pilotée par la DSI de notre client, nous engageons un projet de migration de nos plateformes de données : Migration de l’ETL Informatica vers Dataiku Migration du Data Warehouse Teradata vers BigQuery Environ 100 traitements à migrer (flux de données entre fichiers, bases de données, traitements métier diversifiés : comptabilité, fraude, recouvrement, etc.). Missions Prendre en charge la migration des traitements existants vers Dataiku. Assurer la transposition des flux entre l’environnement actuel (Informatica/Teradata) et la nouvelle stack (Dataiku/BigQuery). Être autonome et force de proposition sur la mise en place des bonnes pratiques. Collaborer avec les équipes internes (apport fonctionnel) tout en apportant une expertise technique Dataiku. Faciliter la montée en compétence des équipes internes sur les traitements migrés.

Permanent

Job Vacancy
Développeur Power BI Sénior

INGENIANCE
Published on
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

48k-58k €
Paris, France

Nous recherchons actuellement un profil sénior Développeur Power BI pour une mission de longue durée chez un de nos clients dans le secteur du luxe. La mission démarrera ASAP, au sein des locaux du client situés dans Paris Intramurros. 2 jours de télétravail seront prévus pour cette mission, fixé par l'équipe en fonction des semaines. Les différentes tâches consisterons en : • Analyse, chiffrage, conception sur les nouveaux besoins de reporting • Développements avancés (Dashboard, Semantic Model, Power automate) • Support Power BI L3 sur les incidents • Formation des utilisateurs à Power BI et au self-service en Français / Anglais

Contractor

Contractor job
DATA ENGINEER GCP

CHOURAK CONSULTING
Published on
Apache Spark
BigQuery
DBT

1 year
400-600 €
Ile-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Contractor
Permanent

Job Vacancy
Data Analyst

Ositel France
Published on
BigQuery
Data Lake
Google Cloud Platform (GCP)

6 months
Ile-de-France, France

Nous recherchons un Data Analyst pour une mission longue, démarrage ASAP. Ses principales missions seront : Création du socle de données : Audit des nouvelles données disponibles dans le DataLake (GCP) ; Participation à la construction et à la modélisation du socle de données. Analyse et exploitation des données : Analyse des profils utilisateurs, comportements de consommation, canaux d’acquisition et rétention ; Étude de l’impact de la pression publicitaire et des nouvelles fonctionnalités sur l’expérience utilisateur ; Analyse de la distribution des contenus auprès de nouveaux partenaires (effets de cannibalisation, audience, etc.). Production d’outils de pilotage : Création, mise à jour et ajustement de Dashboards Power BI pour le suivi des objectifs, indicateurs clés et segments utilisateurs ; Proposition de nouveaux indicateurs pertinents pour le suivi de la performance et des usages.

Contractor

Contractor job
Data Engineer F/H - LILLE

Anywr freelance
Published on
BigQuery
Google Cloud Platform (GCP)
SQL

3 years
400-500 €
Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Permanent
Contractor

Job Vacancy
Data Engineer

ANAFI CONSULTING
Published on
BigQuery
Docker
Domain Driven Design (DDD)

1 year
10k-60k €
100-550 €
Clipperton Island, France

Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data

Contractor
Permanent

Job Vacancy
Data Engineer

Ositel France
Published on
Agile Scrum
BigQuery
CI/CD

6 months
Ile-de-France, France

Nous recherchons un Data Engineer pour une mission longue. Vous interviendrez dans un environnement cloud GCP moderne, en lien avec les équipes internes et les différents produits data. Ses principales missions incluront : -Conception et déploiement des pipelines data : construire, maintenir et optimiser des pipelines robustes, scalables et documentés. -Orchestration et automatisation : configurer et maintenir des workflows via Airflow et Kedro pour garantir l’intégration et la transformation continue des données. -Industrialisation et infrastructure : assurer le déploiement et la maintenance des environnements via Terraform et Terragrunt, dans le respect des bonnes pratiques CI/CD (GitLab). -Support aux équipes : accompagner les utilisateurs dans leurs usages et le requêtage des données (BigQuery, SQL, Python). -Collaboration et partage : participer aux instances de la communauté data engineering, échanger sur les bonnes pratiques, contribuer à la documentation technique. Environnement technique : Langages: Python, SQL, PySpark // Orchestration & Framework : Airflow, Kedro Cloud : Google Cloud Platform (GCP), BigQuery Infrastructure as Code : Terraform, Terragrunt Versioning & CI/CD : GitLab, GitLab CI/CD // Méthodologie : Agile (Scrum, Kanban)

Contractor

Contractor job
DATA INGENIEUR H/F

HAYS France
Published on
BigQuery
Data management

6 months
Paris, France

Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Votre consiste à Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management Assurer la qualité et la conformité des données Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Permanent

Job Vacancy
Développeur GCP expérimenté (H/F)

OBJECTWARE MANAGEMENT GROUP
Published on
AWS Cloud
BigQuery
Google Cloud Platform (GCP)

50k-63k €
Bordeaux, Nouvelle-Aquitaine

🎯 Missions principales Concevoir et développer des applications cloud-native sur GCP. Définir, implémenter et documenter des API performantes et sécurisées (REST, microservices). Garantir la continuité des processus métiers lors de la refonte ou de l’évolution applicative. Participer à la structuration et au traitement des flux de données (intégration, ETL, BigQuery). Collaborer avec les équipes produit et IT pour transformer les besoins en solutions techniques. Assurer la qualité du code et la maintenabilité (tests, revues de code, CI/CD). Participer aux choix techniques et contribuer à l’amélioration continue des pratiques.

Contractor

Contractor job
Concepteur Développeur

CAT-AMANIA
Published on
Apache Airflow
BigQuery
Data Lake

3 months
100-360 €
Lille, Hauts-de-France

Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité

Contractor

Contractor job
Ingénieur de données GCP (H/F)

SMARTPOINT
Published on
Apache Spark
BigQuery
DBT

6 months
400-500 €
Paris, France

o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Contractor
Permanent

Job Vacancy
Architecte Sécurité Cloud & IA Senior

PointRD
Published on
Azure
Azure Synapse
BigQuery

24 months
Ile-de-France, France

Votre Mission : Intégrer l'avenir (Cloud & IA) en toute sécurité Nous recherchons un(e) Architecte Sécurité Cloud & IA Senior en freelance pour une mission de longue visibilité chez l'un de nos clients grands comptes basé à Paris. Votre rôle est stratégique : garantir la conformité et la sécurité des systèmes et applications , en mettant l'accent sur les environnements Cloud (GCP/Azure) et l'intégration sécurisée des technologies d'Intelligence Artificielle (IA) . Vous agirez comme un véritable conseiller expert auprès du CSO (Chief Security Officer) et des équipes métier/IT, en assurant que la sécurité est intégrée par design dans tous les projets. Vos Responsabilités Clés Architecture & Conseil Sécurité : Fournir une expertise et des recommandations sur l'architecture technique des projets. Mener les analyses de risques (y compris DPIA ) et les revues de sécurité. Sécurité Cloud & IA : Être la référence pour la sécurisation des environnements multi-cloud (GCP et Azure) . Contribuer à l'élaboration d'une politique de sécurité pour les solutions basées sur l'IA et le Machine Learning. Gestion des Risques & Conformité : Maintenir la sécurité du périmètre applicatif en ligne avec les standards du Groupe. Assurer la conformité des prestataires externes et des accords SLA (Service Level Agreement). Opérationnel & Amélioration : Évaluer la criticité des vulnérabilités, assurer le suivi des actions correctives et contribuer à l'amélioration continue des processus de sécurité opérationnelle. Innovation : Exploiter les technologies d'IA pour améliorer la détection des menaces, le renseignement et la gestion des vulnérabilités.

Permanent
Contractor

Job Vacancy
Data engineer GCP / Hadoop - DataOps

VISIAN
Published on
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 year
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Contractor

Contractor job
Data Analyst DBT GCP

Cherry Pick
Published on
Apache Airflow
BigQuery
DBT

6 months
400-420 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

53 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us