Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Lille

Mission freelance
Data Engineer MongoDB, PostgreSQL, BigQuery
Secteur Ritail Attendu : Elaboration des modèles de données en collaboration avec les architectes data. Il s’appuie sur sa compréhension des problématiques fonctionnelles et son expertise technique. Il assure la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Il participe à l’évolution du socle data de l’équipe en fonction des besoins. Il est garant de la couverture des tests data. Il est co-responsable de la qualité des données et participe aux redressements de données. Il participe à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Il prend part à la guilde des Data Engineers pour échanger avec ses homologues et s’imprégner des bonnes pratiques. Il assure une documentation complète des pipelines de données qu’il met en place. Il participe activement au RUN data / analyse de problèmes en Production.

Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.

Mission freelance
Concepteur Développeur
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité

Mission freelance
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Mission freelance
Data Analyste H/F
Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Mission freelance
Data Analyst
Expertise SQL, ETL - Expert - Impératif Power BI, Looker - Confirmé - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Souhaitable Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers
Offre d'emploi
Data engineer H/F
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Mission freelance
Tech Lead Back-End Java / Kafka
Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)
Offre d'emploi
Ingénieur DevOps GCP
Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.

Mission freelance
Data Engineer GCP confirmé
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.