Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Lille
Votre recherche renvoie 6 résultats.
Mission freelance
Consultant Web Analytics
ESENCA
Publiée le
BigQuery
Piano Analytics
Web analytics
1 an
Lille, Hauts-de-France
Objectif de la mission Construire et structurer les modèles de données ainsi que les dashboards analytics d’un portail digital interne, afin de mieux comprendre les usages, piloter la performance et soutenir une stratégie data-driven. Missions principales Vous définissez et mettez en place le plan de taggage Web Analytics, en garantissant la qualité et la fiabilité de la collecte de données. Vous exploitez et agrégerez les données via BigQuery et Piano afin de produire des analyses pertinentes. Vous concevez des dashboards clairs et actionnables sous Looker Studio pour accompagner la prise de décision. Vous collaborez étroitement avec les équipes produit et métiers pour comprendre les besoins, identifier les indicateurs clés et promouvoir une culture orientée data. Livrables attendus Plan de taggage Web Analytics Requêtes et agrégation de données (BigQuery, Piano) Dashboards et reportings sous Looker Studio Compétences requises Maîtrise du Web Analytics – impératif Expérience confirmée sur Piano – important Maîtrise de BigQuery – important Bonne capacité de modélisation et de restitution de la donnée Appétence pour la data visualisation et les indicateurs de performance
Mission freelance
Product Manager IA
HAYS France
Publiée le
Agent IA
BigQuery
Copilot
3 ans
250-610 €
Lille, Hauts-de-France
Responsabilités principales🔹 Définition de la stratégie IA Définir et formaliser la gouvernance IA du client en collaboration avec les équipes métiers, Digital & Data Construire la trajectoire IA alignée avec les enjeux business 🔹 Pilotage des projets IA Accompagner les équipes métiers dans l’identification des cas d’usage Prioriser et piloter le backlog des initiatives IA Définir les ressources nécessaires (internes / externes) Suivre le delivery et mesurer la création de valeur (ROI, impact opérationnel) 🔹 Travail en écosystème groupe Collaborer étroitement avec les experts IA du client Identifier et favoriser le re-use de solutions existantes au sein du groupe 🔹 Animation et innovation Faire le lien entre les équipes techniques et le terrain Suivre la performance des solutions IA déployées Contribuer à la diffusion de la culture IA et Data
Mission freelance
Développeur Search Engine (ElasticSearch & Node.js)
HAYS France
Publiée le
BigQuery
CI/CD
Elasticsearch
1 an
500-680 €
Lille, Hauts-de-France
Nous recherchons un Développeur Search Engine pour rejoindre une équipe composée de deux développeurs et d’un Product Owner. Votre rôle sera de travailler sur l’ amélioration continue du moteur de recherche utilisé par plusieurs plateformes e‑commerce internationales, dans un contexte de fort trafic et de hautes exigences de performance . Il s'agit d’une mission longue, avec une réelle volonté d’investissement et de montée en compétences au sein de l’équipe. Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique ElasticSearch (niveau expert – usage avancé) Node.js , TypeScript , NestJS Elastic Cloud BigQuery , SQL avancé GCP – Google Cloud Platform CI/CD, Git, automatisation Clean Code, TDD, Craft, DDD Hard skills attendus Très forte expertise en ElasticSearch dans un contexte complexe / high‑traffic. Maîtrise de Node.js et TypeScript . Connaissance approfondie des principes de Software Craftsmanship . Solides compétences en analyse de données / SQL / BigQuery . Maîtrise des pratiques DevOps et de la chaîne CI/CD . Très bonne compréhension des méthodes agiles .
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6 résultats
Contrats
Lieu
1
1
Lille, Hauts-de-France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois