Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 45 résultats.
Freelance
CDI
CDD

Offre d'emploi
Data Analyst MLops

Publiée le
BigQuery
SQL

8 mois
Île-de-France, France
Contexte du poste Dans le cadre d’un projet stratégique autour de la conception, du déploiement et de la maintenance de modèles d’IA pour la clientèle Grand Public, notre client modernise son infrastructure et migre progressivement son environnement MLOps on-premise vers GCP (Vertex AI). Vous interviendrez au sein d’un environnement data avancé (BigQuery, pipelines MLOps hybrides) avec un portefeuille de modèles existants à maintenir, et de nouveaux modèles à construire orientés connaissance client. Missions1. Production & évolution des modèles existants Assurer la fiabilité des modèles en production (quotidiens/hebdomadaires/mensuels). Vérifier la qualité des données (QoD) et mettre en place des solutions de contournement en cas d’incident. Garantir la stabilité, la pertinence et les délais de livraison des prédictions. Réaliser des analyses de dérive (drift) et documenter les évolutions. 2. Développement de nouveaux modèles Cadrer les projets : périmètre, cible, méthodologie. Construire les bases d’apprentissage et mener les analyses descriptives. Concevoir les features et indicateurs combinés. Développer des modèles ML (churn, appétence, segmentation/clusterisation). Optimiser les algorithmes et valider leur robustesse dans le temps. 3. Analyses & études clients Réaliser des analyses comportementales : profils, segments, trajectoires, comportements. Fournir des simulations d’effectifs ciblés. Identifier des leviers d’actions marketing basés sur les résultats. Croiser plusieurs modèles et réaliser des zooms sur des sous-populations. Accompagner les équipes métiers dans l’appropriation des résultats. 4. Industrialisation des chaînes de production (MLOps) Construire ou optimiser des pipelines de scoring (quotidiens/hebdo/mensuels). Extraire les données, vérifier la QoD, automatiser et ordonnancer les traitements. Assurer la gestion des versions via Git. Mettre en production aussi bien en on-premise que dans GCP MLOps / Vertex AI . 5. Migration vers GCP Participer à la migration de modèles et de pipelines de l’environnement on-premise vers GCP. Adapter les workflows existants à BigQuery, Vertex AI et aux bonnes pratiques MLOps cloud.
Freelance

Mission freelance
Ingénieur Data Cloud (H/F)

Publiée le
BigQuery

12 mois
500-550 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur bancaire, recherche un.e Data Engineer Cloud pour renforcer son pôle Data dans le cadre d’un vaste programme de modernisation de sa plateforme analytique et de migration vers le cloud. Le poste s’adresse à un profil confirmé, capable d’intervenir sur la conception et l’industrialisation de pipelines de données dans un environnement GCP / BigQuery, avec une approche orientée Data Engineering plutôt que développement applicatif. Vous rejoindrez une équipe d’experts data au sein d’un environnement technique moderne, reconnu pour son cadre de travail de qualité et sa culture d’innovation. Vos missions principales: Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud GCP (BigQuery, Dataflow, Pub/Sub, etc.). Participer à la migration des flux et traitements On-Premise vers le Cloud. Optimiser les performances, la scalabilité et la qualité des données sur la plateforme. Contribuer à la mise en œuvre des bonnes pratiques d’ingénierie data : CI/CD, tests, supervision, gouvernance. Collaborer avec les équipes DataOps, BI et Architecture pour garantir la cohérence et la fiabilité des flux. Documenter les architectures, assurer la traçabilité et la qualité des livrables.
Freelance
CDI

Offre d'emploi
Data Science/Analyse

Publiée le
BigQuery
SQL

1 an
40k-45k €
310-450 €
Île-de-France, France
Télétravail partiel
Data Science/AnalyseContexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande organisation audiovisuelle. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste L'équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Déroulement des analyses Être à l'écoute et comprendre les besoins métier Proposer des méthodes et des axes d'analyses pertinents pour y répondre Tirer des enseignements et faire des recommandations en se basant sur les résultats de l'analyse Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l'oral aux équipes métier Communiquer régulièrement sur les résultats des analyses réalisées à l'ensemble de la direction Analyses pour enrichir l'animation et la stratégie éditoriales Profiling utilisateurs : par catégories de contenus, programmes, par chaînes, par device… Analyses de parcours : programmes ou catégories recrutants, fidélisants Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation… Analyses pour enrichir la stratégie produit Audit des données issues des nouvelles fonctionnalités Analyse de l'usage des fonctionnalités, profiling Analyse de l'impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus… Dashboards Être référent sur les dashboards de connaissance utilisateurs Garantir la maintenance et la bonne mise à jour des dashboards existants Ajustement des existants (nouveaux indicateurs, modifications de calculs…) Être force de proposition sur les évolutions des dashboards existants Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos…
Freelance
CDI

Offre d'emploi
DATA ENGINEER

Publiée le
BigQuery
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Engineer GCP confirmé pour accompagner nos clients dans la mise en place et l’industrialisation de leurs pipelines data au sein d’environnements Cloud exigeants. Missions : Conception et développement de pipelines data dans GCP (Dataflow, Dataproc, Composer). Modélisation et optimisation des tables dans BigQuery. Mise en place de bonnes pratiques CI/CD (Cloud Build, GitLab CI, Terraform…). Industrialisation, monitoring et optimisation des workflows. Collaboration étroite avec les équipes Data, Produit et Architecture. Compétences recherchées : Maîtrise des services GCP Data (BigQuery, Dataflow, Pub/Sub, Composer). Très bonne expertise Python et frameworks ETL. Connaissances des bonnes pratiques DevOps (Docker, Terraform…). Expérience en environnement Data à forte volumétrie. Esprit analytique, autonomie et capacité à travailler en équipe. Profil attendu : 3 à 5 ans d’expérience en Data Engineering. Expérience significative sur GCP obligatoire. Une certification GCP Data Engineer est un plus.
Freelance

Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)

Publiée le
BigQuery
Data analysis
Data cleaning

6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Freelance

Mission freelance
data analyst GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance

Mission freelance
Data Scientist Confirmé / sénior - Temps plein

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist confirmé·e / senior pour rejoindre une squad Supply Chain composée de 5 Data Scientists. L’objectif est de capitaliser sur des solutions IA déjà existantes et d’étendre leur périmètre afin de répondre à de nouveaux enjeux métiers. Missions principales 💡 Collection Structure & Assortment Concevoir des outils d’analyse avancée et/ou de simulation pour évaluer l’assortiment actuel (showroom, catalogue). Déterminer des quantités d’achat optimales permettant de couvrir les besoins du marché et d’atteindre les objectifs de ventes. 📉 Depletion Path Développer des modèles d’analyse pour identifier les produits à retirer progressivement de l’assortiment retail et définir les canaux de sortie adéquats. Analyser l’historique des assortiments afin de démontrer la possibilité de générer un revenu similaire avec un nombre réduit de références (SKUs). 🔀 Stock Rebalancing Concevoir des approches algorithmiques permettant de relocaliser les stocks sous-performants vers des points de vente à fort potentiel de vente. Responsabilités Explorer, analyser et modéliser des données complexes à fort volume. Construire des pipelines de données robustes et industrialisés. Améliorer et enrichir les briques IA existantes afin de traiter de nouveaux cas d’usage. Interagir avec les équipes métiers pour comprendre les enjeux opérationnels et proposer des solutions pragmatiques. Documenter et partager les résultats de manière claire, structurée et pédagogique.
CDI
Freelance
CDD

Offre d'emploi
ML Ops

Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps

12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
Concepteur Développeur

Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

12 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Positionné(e) dans l'équipe RUN / Process Transverses / Tour de Contrôle, il/elle met en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données afin de vérifier la qualité sur l'ensemble des chaînes de valeur monitorées.
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)

Publiée le
BigQuery
DBT

3 ans
100-200 €
Maroc
Télétravail 100%
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)
Freelance

Mission freelance
Data Analyst (H/F)

Publiée le
BigQuery

1 an
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du développement d’une stratégie data autour du domaine de la Seconde main , nous recherchons un·e Data Analyst expérimenté·e pour accompagner les équipes dans la modélisation de données , l’ analyse métier et la construction de tableaux de bord décisionnels sous Power BI. Vous interviendrez en binôme avec un·e Data Engineer, au sein d’un environnement agile et stimulant. 🔍 Objectifs de la mission Comprendre les enjeux business et challenger les besoins exprimés par les équipes métier. Traduire les problématiques fonctionnelles en modèles analytiques pertinents. Concevoir des modèles de données performants, adaptés à la restitution (couches d’exposition). Créer, maintenir et faire évoluer des dashboards Power BI, avec une approche centrée utilisateur. Collaborer étroitement avec le/la Data Engineer pour garantir qualité, cohérence et performance des flux de données. Participer activement aux rituels agiles de la squad.
CDI
Freelance

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Freelance

Mission freelance
Consultant(e) AI Scientist & Agentique

Publiée le
BigQuery
Google Cloud Platform (GCP)
IAM

6 mois
Paris, France
Télétravail partiel
Missions Développer et structurer du code Python de qualité (tests, environnements, API). Construire des pipelines IA autour de modèles LLM (Large Language Models). Mettre en œuvre des systèmes RAG (Retrieval Augmented Generation) pour connecter l’IA aux données internes. Concevoir des agents IA (planification, outils, actions) avec des frameworks spécialisés. Déployer les solutions sur Google Cloud Platform et ses services IA (Vertex AI). Intégrer l’IA dans des environnements de production : authentification, monitoring, connecteurs métier. Collaborer avec les équipes data, produit et engineering pour industrialiser les solutions.
Freelance

Mission freelance
Développeur SQL (F/H)

Publiée le
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer

6 mois
Lille, Hauts-de-France
Télétravail partiel
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
BigQuery
Docker
Domain Driven Design (DDD)

1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
45 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous