Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 34 résultats.
Suivant
Freelance

Mission freelance
DATA INGENIEUR H/F

HAYS France
Publiée le
BigQuery
Data management

6 mois
75008, Paris, Île-de-France

Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Votre consiste à Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management Assurer la qualité et la conformité des données Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
Talend Data Engineer with BigQuery (h/f)

emagine Consulting SARL
Publiée le

12 mois
400-475 €
69008, Lyon, Auvergne-Rhône-Alpes

Vous êtes un Data Engineer Talend expérimenté avec une expertise avérée dans BigQuery, l'optimisation SQL et les plateformes cloud comme GCP et Azure ? emagine a une opportunité pour vous de soutenir le développement d'une solution de R&I de pointe qui centralise les données d'expérience et permet une analyse avancée des chercheurs en utilisant la BI et l'IA. Vous collaborerez avec des équipes internes et des partenaires externes pour fournir des solutions d'ingestion de données et d'ETL robustes et de bout en bout. Are you an experienced Talend Data Engineer with proven expertise in BigQuery, SQL optimization, and cloud platforms like GCP and Azure? emagine has an opportunity for you to support the development of a cutting-edge R&I solution that centralizes experiment data and enables advanced researcher analysis using BI, and AI. You’ll collaborate with internal squads and external partners to deliver robust, end-to-end data ingestion and ETL solutions. Key Skills & Experience: 5+ years as a Data Engineer with strong SQL and Talend expertise. Advanced experience with BigQuery and Google Cloud Platform. Familiarity with Microsoft Azure and Agile/DevOps methodologies. Strong problem-solving, communication, and collaboration skills. Experience with Git, JIRA, and Confluence. Languages: Fluent English required; French nice to have Key Tasks & Deliverables: Design, develop, and support Talend data pipelines, warehouses, and reporting systems. Analyse business requirements and propose optimized technical solutions. Design data models and define optimized tables/views in BigQuery and SQL Contribute to architectural decisions, introducing new design patterns and technologies. Ensure data security across all application layers. Promote development best practices including source control, reusability, and coding standards. Own full implementation quality: code, testing, monitoring, alerting, and performance. You’ll be part of a collaborative and enabling team, working on a high-impact solution that supports scientific innovation. The role offers autonomy and the chance to shape technical direction while working remotely with global stakeholders. The role can be performed remotely in the European time zone. Apply with your latest CV or reach out to Brendan to find out more.

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance

Mission freelance
Data engineer GCP h/f

Freelance.com
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform

3 mois
510-750 €
Saint-Ouen-l'Aumône, Île-de-France

Concevoir et optimiser des pipelines de données robustes, évolutifs et sécurisés Développer des requêtes BigQuery complexes et assurer l’optimisation coûts/performance Construire des modèles de données fiables (schéma en étoile, flocon de neige) pour la BI (PowerBI, Looker) Intégrer des données provenant de sources variées (API, bases, cloud-to-cloud, fichiers) Mettre en œuvre les bonnes pratiques CI/CD et Infrastructure as Code (Terraform, GitHub) Contribuer à l’industrialisation et la gouvernance de la plateforme Data

Freelance
CDI

Offre d'emploi
Product Owner - 6 mois - Lille

Holborn
Publiée le
BigQuery
Product management
Scrum

6 mois
40k-45k €
400-550 €
Lille, Hauts-de-France

Product Owner - 6 mois - Lille Un de nos importants clients recherche un Product Owner pour une mission de 6 mois sur Lille. Présence initiale de 5 jours par semaine sur site. Contrainte forte du projet ---> Contexte international Compétences techniques Pilotage d'éditeur et roadmap, scrum - Confirmé - Impératif BigQuery, Flux - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Vous intervenez sur 2 produits digitaux avec une équipe de développement commune. Pour cela, vous êtes : - Product Owner du produit destiné à la gestion de la cohérence tarifaire pour continuer son déploiement et améliorer ses usages - Responsable d'une application d'éditeur ainsi que son intégration et accompagner les Business Units dans leur utilisation et la gestion de la priorisation des besoins pour faire avancer notre roadmap et celle de l'éditeur. L'outil permet de paramétrer la stratégie tarifaire vis à vis de la concurrence, de simuler les impacts et de gérer quotidiennement des recommandations de changement de prix. L'équipe est composé de 3 développeurs, un QA et vous serez en lien avec les utilisateurs (échanges en anglais) et les responsables des process métier du groupe. Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

CDI

Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H

Fnac Darty
Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

CDI

Offre d'emploi
Data Engineering Manager (H/F)

Pickmeup
Publiée le
BigQuery
Git
Java

Île-de-France, France

Missions principales Conception & stratégie data Définir une vision claire pour les infrastructures de données en cohérence avec les objectifs globaux de l’entreprise. Encadrer la mise en place de pipelines de données fiables, performants et évolutifs. Superviser la gestion des flux, du stockage et de la structuration des données. Leadership & organisation Structurer et faire évoluer une équipe d’ingénieurs data (recrutement, montée en compétences, accompagnement). Promouvoir des pratiques de développement robustes et une culture de l’innovation. Garantir une coordination fluide entre les équipes techniques et métiers. Gouvernance & qualité Assurer la fiabilité, la sécurité et la conformité des données exploitées. Optimiser les coûts liés au stockage et au traitement. Documenter les architectures, processus et flux de données pour assurer transparence et maintenabilité. Collaboration transverse Interagir avec les équipes métiers pour comprendre les cas d’usage et proposer des solutions techniques adaptées. Travailler en lien étroit avec les équipes produit, analytics, DevOps et architecture. L’entreprise s’engage à promouvoir l’égalité des chances et à garantir un processus de recrutement inclusif et non discriminatoire.

Freelance

Mission freelance
Data Engineer confirmé H/F

Insitoo Freelances
Publiée le
Apache Kafka
BigQuery
PowerBI

2 ans
100-508 €
Hauts-de-France, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer confirmé H/F à Hauts-de-France, France. Contexte : Le profil intégrera une équipe Data en charge d'un périmètre fonctionnel Les missions attendues par le Data Engineer confirmé H/F : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Azure DevOps
BigQuery
DBT

3 ans
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
Data Engineer senior/ Python/ Talend / Looker/ GCP - Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Git

6 mois
490-560 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data Engineer senior. En tant que Data Engineer, vous aurez la charge de concevoir, développer et d’optimiser des solutions Data adaptées aux besoins de nos différents métiers. Votre expertise avancée sur les différents services GCP, combinée à une solide maîtrise de SQL et python, sera essentielle pour concevoir des solutions performantes et alignées avec les besoins métiers. Vous serez un acteur clé de l'équipe technique de la Data Factory pour garantir la fiabilité et la performance des systèmes de traitement de données. Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
Data Engineer CGP H/F

Insitoo Freelances
Publiée le
BigQuery
Google Cloud Platform (GCP)

2 ans
350-420 €
Rouen, Normandie

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer CGP H/F à Rouen, France. Dans le cadre d'un renfort d'équipe, nous recherchons un profil DataEng orienté GCP, avec 3ans d'expérience. Missions principales : Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Réaliser la recette technique Assurer la qualité avec des tests de non-régression

Freelance
CDD

Offre d'emploi
Homologateur.trice QA Data H/F

SMARTPOINT
Publiée le
Apache Kafka
BigQuery
JIRA

3 mois
50k-60k €
450-500 €
Île-de-France, France

Prendre en charge les tests de la squad : • Participer aux ateliers pour comprendre les besoins et challenger le PO les tests d’acceptance • Challenger le PO dans l’écriture des tests d’acceptance des US sous format classique ou Gherkin (BDD) • Vérifier la couverture des tests en liant les cahiers de tests aux exigences (US) • Préparation des Jeux de données et participation à l’élaboration des Mocks pour les tests Data et API • Organiser les campagnes de tests et les exécuter en manuel ou en automatique • Organisation et coordination des tests de bout en bout avec les autres squads dans le cadre des tests transverses • Dérouler les tests de non-régression • Analyser les résultats et remonter les anomalies • Communiquer sur l’état d’avancement de ses tests • Mettre à jour le référentiel de tests de non-régression de la squad • Rédiger le procès-verbal de la recette • Participer aux cérémonies agiles : Daily, sprints planning, démo, rétrospectives… Contribuer à la professionnalisation et à la transformation des méthodes de tests avec le test manager : • Contribuer à l’amélioration de la démarche et des pratiques de test ainsi que l’outillage • Entretenir et mettre à jour notre patrimoine documentaire de tests • Contribuer à l’animation de la communauté

Freelance
CDI

Offre d'emploi
Consultant INFORMATICA IDMC & GCP – Data Integration (H/F)

WE +
Publiée le
BigQuery
Google Cloud Platform (GCP)
Informatica

6 mois
Île-de-France, France

Dans le cadre du développement de nos activités Data & Cloud, nous recherchons un Consultant expérimenté sur INFORMATICA IDMC et Google Cloud Platform (GCP). Au sein d’une équipe projet pluridisciplinaire, vous interviendrez sur des missions de conception, d’intégration et de déploiement de flux de données complexes, en exploitant toute la puissance de la plateforme IDMC (Informatica Intelligent Data Management Cloud) et les services natifs GCP. Principales missions : Analyse des besoins métiers et cadrage technique des flux de données à industrialiser Conception, développement et optimisation de pipelines de données sur IDMC (Data Integration, Data Quality, Data Catalog…) Intégration et orchestration de données dans GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub…) Participation aux phases de migration et de modernisation des plateformes Data existantes vers le Cloud Rédaction de la documentation technique et bonnes pratiques Support technique, expertise et accompagnement des équipes Data internes Veille technologique et proposition de solutions innovantes autour de la Data et du Cloud Compétences attendues Expertise sur INFORMATICA IDMC (Data Integration, Data Quality, Data Catalog…) Maitrise des environnements GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub…) Bonnes pratiques de développement et d’intégration de données Rédaction de documentation technique, support et formation (Bonus) Expérience migration OnPrem vers Cloud, ou connaissance d’autres clouds (Azure, AWS…)

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform (GCP)

12 mois
50k-60k €
500-550 €
Île-de-France, France

Vous travaillerez en collaboration avec l’équipe de développement pour assurer ces principales missions : • Développer les pipelines de données permettant l’ingestion des données du Core Banking sur la plateforme data existante sous GCP • Garantir la non-régression du SI existant via le développement de TNR. • Développer et assurer le run évolutif les états réglementaires spécifiques développés pour le programme Galaxy (VUC, Eckert, RUBA). • Contribution à l’amélioration continue de nos outils et méthodologies de développements Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques

Freelance

Mission freelance
Data Engineer GCP & JAVA

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
Île-de-France, France

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Connaissance approfondie du SQL Devops sur Github Datafor / DBT Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Suivant
34 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous