Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Paris

Votre recherche renvoie 18 résultats.
Freelance
CDI

Offre d'emploi
Product analyst

UCASE CONSULTING
Publiée le
BigQuery
Snowflake
SQL

1 an
40k-65k €
410-810 €
Paris, France
Bonjour 😀 Pour l'un de nos clients, nous recherchons un Product Data Analyst pour accompagner son équipe Produit App Mobile , afin de piloter la prise de décision basée sur la donnée et d’améliorer l’expérience de l’application mobile. Au sein de l’équipe Digital Analytics, vous jouerez un rôle clé dans l’analyse de la performance produit, l’expérimentation et l’optimisation continue, en fournissant des insights actionnables qui orientent la stratégie produit et génèrent un impact business mesurable. Responsabilités principales : Analyse Produit & Performance : Analyser les évolutions produit, les expérimentations (A/B tests) et les optimisations afin de mesurer leur impact sur les principaux KPI de l’application mobile et du business. Insights Stratégiques : Transformer les données en recommandations claires et actionnables afin d’influencer la roadmap produit et les priorités business. Collaboration avec les parties prenantes : Travailler en partenariat avec des équipes transverses pour définir les indicateurs de succès et soutenir les décisions produit basées sur la donnée. Stratégie Analytics & Tracking : Définir et valider les besoins de tracking afin de garantir une collecte de données fiable, une bonne qualité des données et l’intégrité de la mesure. Expérimentation & Optimisation : Identifier des opportunités d’optimisation pour améliorer la conversion et l’expérience utilisateur.
CDI

Offre d'emploi
Data Engineer H/F (CDI)

█ █ █ █ █ █ █
Publiée le
BigQuery
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Gentis Recruitment SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Freelance

Mission freelance
Data Engineer (H/F) - 75

Mindquest
Publiée le
Apache Airflow
Apache Spark
BigQuery

3 mois
Paris, France
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Freelance

Mission freelance
Data Steward

Groupe Aptenia
Publiée le
BigQuery
Data governance
RGPD

3 ans
Paris, France
Nous recherchons un Data Steward expérimenté , opérationnel et proactif, capable de prendre en main la gouvernance data et d’être le lien privilégié entre les métiers et les équipes Data. Nous pouvons valider votre intégration la semaine prochaine, pour un démarrage en Février ✅ Déployer la gouvernance data : qualité, métadonnées, gestion des accès. ✅ Assurer la qualité des données : définition des règles, contrôles, suivi des anomalies, plans de remédiation. ✅ Gérer les métadonnées : glossaire métier, cohérence, respect des standards et bonnes pratiques. ✅ Garantir les accès & la conformité : sécurité, RGPD, gestion des données sensibles, coordination avec les équipes. ✅ Animer la gouvernance : communication, accompagnement, support aux Data Owners & Data Champions. ✅ Piloter le domaine data : suivi des Data Sets, conformité, documentation, gouvernance quotidienne.
Freelance

Mission freelance
Lead Transformation Qualité & Accélération Data / IA (H/F)

Gentis Recruitment SAS
Publiée le
BigQuery
Data governance
Data quality

6 mois
Paris, France
Lead Transformation Qualité & Accélération Data / IA (H/F) Mission de conseil – Environnement Data & IA à grande échelle Contexte de la mission Au sein de la Direction Data & Digital Transformation d’un grand groupe français du secteur de la distribution , une entité Data & Analytics de grande taille accompagne les métiers (Marketing, E-commerce, Supply Chain, Finance…) dans l’exploitation de la donnée et de l’IA pour le pilotage de la performance. Cette organisation, composée de plus de 150 experts Data & IA, engage une transformation structurante visant à industrialiser ses pratiques et à positionner la Qualité comme levier clé de performance, de fiabilité et d’accélération du delivery. Objectifs de la mission Piloter la transformation vers un standard de qualité systémique sur les sujets Data & IA. Renforcer la gouvernance Data et IA , les pratiques agiles et la culture de l’excellence opérationnelle. Agir comme catalyseur de transformation , combinant vision stratégique, influence transverse et pilotage opérationnel. Missions principales Vision, stratégie et gouvernance (axe prioritaire) Définir et piloter la feuille de route Qualité & Gouvernance Data / IA. Standardiser les livrables Data, IA, code et documentation. Mettre en place une gouvernance IA conforme aux exigences réglementaires (RGPD, AI Act). Structurer et faire évoluer les méthodes et outils (Agilité, DataOps). Leadership et conduite du changement Diffuser une culture de la qualité orientée performance et accélération du delivery. Coacher les équipes et animer les communautés de pratiques (DataOps, Agilité, Qualité). Assurer l’alignement avec les autres entités technologiques du groupe. Pilotage opérationnel Structurer les processus qualité (Data Quality, Craftsmanship, Agilité). Définir et suivre les KPIs qualité et les indicateurs de satisfaction (NPS). Intervenir en tant que Product Owner sur des offres DataOps (priorisation, adoption). Contribuer aux sujets FinOps et au pilotage des coûts cloud. Profil recherché Compétences techniques Pilotage de la qualité et de la gouvernance dans des environnements Data/Tech complexes. Solide maîtrise de la Data Quality, du DataOps / MLOps (CI/CD, Infrastructure as Code). Bonne connaissance des environnements Cloud, notamment GCP (BigQuery, Composer). Maîtrise des enjeux réglementaires liés aux données et à l’IA (RGPD, AI Act). Leadership et vision Expérience confirmée de conduite de transformations à l’échelle (100+ personnes). Capacité à définir une vision stratégique et à la décliner en plans d’actions mesurables. Leadership transverse, posture de coach, animation de communautés. Expérience Minimum 8 ans d’expérience sur des fonctions similaires (Lead Data, CDO, Transformation Data/IA). Une expérience en transformation agile ou en change management est un atout fort. Modalités Localisation : Île-de-France (Essonne), présence sur site requise 2 à 3 jours par semaine. Durée : Mission longue, 6 mois renouvelables. Démarrage : ASAP.
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

REDLAB
Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Gentis Recruitment SAS
Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance

Mission freelance
Chef de projet Data

Gentis Recruitment SAS
Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Freelance
CDI

Offre d'emploi
Cloud FinOps Engineer GCP

KLETA
Publiée le
FinOps
Google Cloud Platform (GCP)
Reporting

3 ans
Paris, France
Nous recherchons un Cloud FinOps Engineer GCP pour piloter et optimiser les coûts cloud dans des environnements complexes et fortement industrialisés. Vous serez en charge de l’analyse détaillée des consommations GCP via Billing, Cost Management et BigQuery afin d’identifier les principaux postes de dépenses et les leviers d’optimisation. Vous travaillerez sur des stratégies de right-sizing, d’autoscaling, d’engagements (Committed Use Discounts) et d’optimisation des ressources (GKE, Compute Engine, Cloud Storage, BigQuery). Vous contribuerez à la mise en place de modèles de refacturation interne (showback/chargeback) pour responsabiliser les équipes sur leurs usages cloud. Vous développerez des tableaux de bord de pilotage financier et des mécanismes d’alerte pour anticiper les dérives budgétaires. En collaboration avec les équipes DevOps et Architecture, vous participerez à l’industrialisation des bonnes pratiques FinOps via l’automatisation et l’intégration dans les pipelines. Vous serez également un acteur clé de la sensibilisation des équipes aux enjeux de performance financière et de sobriété numérique sur GCP.
Freelance

Mission freelance
Data Architecte H/F

Comet
Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Chef de Projet Technique DATA

Hexagone Digitale
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)

6 mois
Paris, France
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
18 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous