Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Lille

Votre recherche renvoie 16 résultats.
Freelance

Mission freelance
Chef de Projet MOA – Omnicanalité / Supply Chain

ESENCA
Publiée le
AMOA
BigQuery
Pilotage

1 an
Lille, Hauts-de-France
Description de la mission Au sein d’une équipe dédiée à l’optimisation de la livraison client, vous intervenez comme expert métier pour concevoir et améliorer les processus liés à l’exécution des commandes. Missions principales1. Cadrage et formalisation Rédiger les documents de cadrage Définir les processus cibles dans le cadre de nouveaux projets ou d’évolutions Structurer les besoins métiers et les traduire en solutions opérationnelles 2. Optimisation Supply Chain Analyser les flux logistiques de bout en bout Identifier les points de friction Proposer des solutions pour améliorer la fluidité des parcours produits 3. Pilotage par la data Exploiter les données de performance (ex : BigQuery) Mesurer l’impact des optimisations Mettre en place des indicateurs pertinents 4. Amélioration continue Animer des ateliers avec les Business Units et équipes opérationnelles Diffuser les bonnes pratiques Garantir la cohérence des processus à l’échelle globale Objectif global Construire, harmoniser et optimiser les processus métiers autour de l’omnicanalité et des systèmes de gestion des commandes (OMS), en lien avec les enjeux Supply Chain. Contexte Environnement international avec des enjeux forts d’optimisation de l’expérience client et de performance logistique. Le poste s’inscrit dans une dynamique de transformation des processus liés à l’exécution des commandes (Fulfillment). Contraintes du projet Expertise métier forte en omnicanalité / Supply Chain / OMS Anglais professionnel obligatoire Compétences techniques Supply Chain – Confirmé – Impératif Formalisation de processus métiers – Confirmé – Impératif OMS (Order Management System) – Confirmé – Important Requêtes Data GCP (BigQuery) – Confirmé – Souhaitable Connaissances linguistiques Français courant – Impératif Anglais professionnel – Impératif Modalités Localisation : Poste basé dans la région lilloise Rythme : 3 jours sur site / semaine Télétravail : possible sur les autres jours
Freelance

Mission freelance
Expert(e) Métier Omnicanalité / Supply Chain / OMS

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Supply Chain

3 ans
100-550 £GB
Lille, Hauts-de-France
Missions principales1. Cadrage & Formalisation Rédiger les documents de cadrage métier. Définir les processus cibles pour les nouveaux projets ou l’évolution des outils existants. Produire des documents pédagogiques et supports de démonstration. 2. Optimisation Supply Chain Analyser les flux logistiques du stock jusqu’au client. Identifier les points de friction et proposer des solutions pour fiabiliser le parcours produit. Contribuer à la construction d’un modèle opérationnel omnicanal cohérent et partagé. 3. Pilotage par la Data Exploiter les données de performance (dont requêtes BigQuery – GCP). Mesurer l’impact des optimisations. Proposer des plans d’action pour améliorer l’efficacité opérationnelle. 4. Animation & Amélioration Continue Animer des ateliers avec les BU et plateformes logistiques. Diffuser les bonnes pratiques. Assurer la cohérence globale des processus entre les pays et entités.
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance

Mission freelance
Développeur Search Engine (ElasticSearch & Node.js)

HAYS France
Publiée le
BigQuery
CI/CD
Elasticsearch

1 an
500-680 €
Lille, Hauts-de-France
Nous recherchons un Développeur Search Engine pour rejoindre une équipe composée de deux développeurs et d’un Product Owner. Votre rôle sera de travailler sur l’ amélioration continue du moteur de recherche utilisé par plusieurs plateformes e‑commerce internationales, dans un contexte de fort trafic et de hautes exigences de performance . Il s'agit d’une mission longue, avec une réelle volonté d’investissement et de montée en compétences au sein de l’équipe. Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique ElasticSearch (niveau expert – usage avancé) Node.js , TypeScript , NestJS Elastic Cloud BigQuery , SQL avancé GCP – Google Cloud Platform CI/CD, Git, automatisation Clean Code, TDD, Craft, DDD Hard skills attendus Très forte expertise en ElasticSearch dans un contexte complexe / high‑traffic. Maîtrise de Node.js et TypeScript . Connaissance approfondie des principes de Software Craftsmanship . Solides compétences en analyse de données / SQL / BigQuery . Maîtrise des pratiques DevOps et de la chaîne CI/CD . Très bonne compréhension des méthodes agiles .
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Freelance

Mission freelance
Consultant web analytics

CAT-AMANIA
Publiée le
BigQuery
Looker Studio
Piano Analytics

1 an
Lille, Hauts-de-France
La mission s’inscrit dans le cadre d’un portail web interne à destination des collaborateurs en points de vente. Ce portail sera déployé progressivement dans l’ensemble des entités du groupe et centralisera, en mode portail, tous les parcours utilisateurs utiles à la vie en magasin. La connaissance et la maîtrise des données liées à ce portail constituent un enjeu stratégique pour l’entreprise afin de : Mieux connaître les utilisateurs Prendre des décisions éclairées Piloter la transformation omnicanale (dont ce portail est un levier majeur en magasin) Dans cette mission, vous rejoignez une équipe d’experts Web Analytics et travaillez en étroite collaboration avec l’équipe produit du portail. Vous souhaitez intégrer une équipe engagée pour ses utilisateurs, qui privilégie la collaboration et la bonne ambiance ? Vous aimez être à la fois analyste et ambassadeur d’une culture data-driven ? Alors cette mission est faite pour vous. Web Analytic - Confirmé - Impératif Piano - Confirmé - Important Big Query - Confirmé - Important
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance

Mission freelance
Consultant Web Analytics

ESENCA
Publiée le
BigQuery
Piano Analytics
Web analytics

1 an
Lille, Hauts-de-France
Mission principale : Rejoindre l’équipe d’experts Web Analytics et collaborer avec l’équipe du portail Collecter, structurer et analyser les données utilisateurs Mettre en place des modèles de suivi et des dashboards pour piloter l’activité et la transformation Activités principales : Définir et mettre en œuvre le plan de taggage Web Analytics Requêter et agréger les données via BigQuery et Piano Restituer les insights et analyses via Looker Studio Participer à la diffusion de la culture data-driven au sein de l’équipe Contribuer à l’amélioration continue des modèles et dashboards Livrables : Plan de taggage Web Analytics complet Requêtes et agrégations de données structurées Dashboards et restitutions opérationnelles via Looker Studio Compétences techniques : Web Analytics (Confirmé) Piano (Confirmé) BigQuery (Confirmé) Looker Studio / Data visualization Modalités : Télétravail possible : 2 jours / semaine
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Freelance

Mission freelance
Lead développeur

Codezys
Publiée le
BigQuery
Git
Javascript

12 mois
Lille, Hauts-de-France
Nous vous proposons d'intégrer l'équipe responsable de la navigation globale ainsi que de nombreuses pages de notre site internet. Cette équipe composée de trois développeurs frontend / fullstack expérimentés et d'une Product Owner assure la maîtrise des fonctionnalités clés de notre plateforme. En tant que Lead développeur, vous intégrerez cette équipe dynamique. Votre rôle sera de participer activement à toutes les étapes du cycle agile, comprenant : la conception le développement les phases de test le déploiement le maintien en condition opérationnelle des nouvelles fonctionnalités Vous appliquerez et challengerez, en équipe, les recommandations relatives à l'architecture, à la sécurité, à la performance, ainsi qu'à la qualité et à la robustesse des développements réalisés. Vous collaborerez étroitement avec vos collègues pour élaborer le contenu des prochaines releases. En équipe, vous identifierez des solutions techniques innovantes permettant d’atteindre les objectifs fixés. De plus, vous assurerez la documentation des aspects techniques et partagerez vos connaissances avec d'autres développeurs intervenant dans différents domaines. Votre contribution sera également essentielle à l'amélioration continue des processus de livraison des produits, en vous appuyant sur les outils DevOps et en adoptant les méthodes agiles.
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le
Big Data
BigQuery
Data science

12 mois
Lille, Hauts-de-France
Notre Data Analyst devra : Concevoir, développer et mettre en œuvre des modèles d’analyse territoriale afin d’identifier les variables clés influençant les dynamiques locales. Exploiter des données variées telles que les données socio-démographiques, environnementales, concurrentielles, économiques et de marché pour établir des corrélations et réaliser des prédictions. Principales missions : Collecter, nettoyer et structurer des données provenant de sources diverses, qu’elles soient internes ou externes (Systèmes d’Information Géographique, bases démographiques, données climatiques, données de marché, etc.). Développer des modèles statistiques et d’apprentissage automatique pour analyser les relations entre variables et anticiper les évolutions territoriales. Collaborer avec le Chargé d’étude en géomarketing afin d’intégrer des données géospatiales dans les analyses. Concevoir des tableaux de bord interactifs (notamment avec Power BI) et élaborer des visualisations pour faciliter la compréhension des résultats par les décideurs (cartes, graphiques, etc.). Travailler en étroite collaboration avec les experts métier pour affiner les hypothèses, valider les modèles et garantir la pertinence des analyses. Analyse et contact avec le métier : Transformer les besoins métiers en indicateurs pertinents et identifier les sources de données appropriées pour y répondre. Analyser les dynamiques croisées des territoires, notamment en matière socio-démographique, économique, immobilière, environnementale, concurrentielle et de mobilité. Convertir les résultats analytiques en livrables clairs, pédagogiques et exploitables pour les équipes décisionnelles. Gestion des données et traitement : Rédiger des requêtes SQL complexes pour la préparation et l’analyse des données. Garantir la fiabilité, la cohérence et la traçabilité des analyses produites. Participer à l’industrialisation et à la fiabilisation des données à forte valeur ajoutée, en assurant leur architecture et leur modélisation.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
16 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous