Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 61 résultats.
CDI

Offre d'emploi
Chef de projet Data MDM (industrie)

Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)

40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Freelance

Mission freelance
Développeur Search Engine (ElasticSearch & Node.js)

HAYS France
Publiée le
BigQuery
CI/CD
Elasticsearch

1 an
500-680 €
Lille, Hauts-de-France
Nous recherchons un Développeur Search Engine pour rejoindre une équipe composée de deux développeurs et d’un Product Owner. Votre rôle sera de travailler sur l’ amélioration continue du moteur de recherche utilisé par plusieurs plateformes e‑commerce internationales, dans un contexte de fort trafic et de hautes exigences de performance . Il s'agit d’une mission longue, avec une réelle volonté d’investissement et de montée en compétences au sein de l’équipe. Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique ElasticSearch (niveau expert – usage avancé) Node.js , TypeScript , NestJS Elastic Cloud BigQuery , SQL avancé GCP – Google Cloud Platform CI/CD, Git, automatisation Clean Code, TDD, Craft, DDD Hard skills attendus Très forte expertise en ElasticSearch dans un contexte complexe / high‑traffic. Maîtrise de Node.js et TypeScript . Connaissance approfondie des principes de Software Craftsmanship . Solides compétences en analyse de données / SQL / BigQuery . Maîtrise des pratiques DevOps et de la chaîne CI/CD . Très bonne compréhension des méthodes agiles .
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance

Mission freelance
Data Engineer GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
Git

Épinay-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Freelance

Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)

Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative

6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Freelance
CDI

Offre d'emploi
Senior Looker / LookML Developer

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Freelance
CDI

Offre d'emploi
Data Engineer GCP/PYTHON

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer GCP pour l'un de nos clients ! Contexte de la mission : Au sein de la Direction Technologie, la Data Factory est en charge du pilotage, de la conception, du déploiement et de l’exploitation des solutions technologiques répondant aux cas d’usage data et aux besoins d’automatisation, à travers des plateformes modernes et performantes. La Data Factory joue également un rôle clé dans le développement des produits data et dans la diffusion des bonnes pratiques au sein des différentes Squads, afin de renforcer la culture data et l’excellence technique. Dans ce cadre, nous recherchons un(e) Data Engineer Confirmé(e) GCP/PYTHON 🎯 Missions principales Le/LA Data Engineer interviendra sur les périmètres suivants : 🔹 Déploiement & Industrialisation Déployer des datasets normés sur les data domains suivants : Utilisateurs, Comportements, Référentiels Concevoir, développer et maintenir des pipelines data robustes, scalables et performants Organiser et structurer le stockage des données Mettre en place des infrastructures évolutives adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD 🔹 Qualité & Gouvernance Mettre en place des contrôles qualité sur les datasets Garantir la fiabilité, l’intégrité et la sécurité des données Participer aux initiatives de gouvernance (Dataplex, catalogage, traçabilité) Assurer la stabilité et la sécurité des environnements 🔹 Collaboration & Support Accompagner les utilisateurs dans l’exploitation et le requêtage des données Participer activement aux phases de conception, planification et réalisation Contribuer à la documentation technique Partager les bonnes pratiques au sein de l’équipe Data Participer aux instances Data Engineering 🔹 Amélioration continue Assurer une veille technologique active Contribuer à l’évolution des standards techniques
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Consultant web analytics

CAT-AMANIA
Publiée le
BigQuery
Looker Studio
Piano Analytics

1 an
Lille, Hauts-de-France
La mission s’inscrit dans le cadre d’un portail web interne à destination des collaborateurs en points de vente. Ce portail sera déployé progressivement dans l’ensemble des entités du groupe et centralisera, en mode portail, tous les parcours utilisateurs utiles à la vie en magasin. La connaissance et la maîtrise des données liées à ce portail constituent un enjeu stratégique pour l’entreprise afin de : Mieux connaître les utilisateurs Prendre des décisions éclairées Piloter la transformation omnicanale (dont ce portail est un levier majeur en magasin) Dans cette mission, vous rejoignez une équipe d’experts Web Analytics et travaillez en étroite collaboration avec l’équipe produit du portail. Vous souhaitez intégrer une équipe engagée pour ses utilisateurs, qui privilégie la collaboration et la bonne ambiance ? Vous aimez être à la fois analyste et ambassadeur d’une culture data-driven ? Alors cette mission est faite pour vous. Web Analytic - Confirmé - Impératif Piano - Confirmé - Important Big Query - Confirmé - Important
Freelance

Mission freelance
Développeur NIFI

Nicholson SAS
Publiée le
Apache NiFi
BigQuery
CSV

9 mois
450 €
Île-de-France, France
Bonjour, Nous recherchons un Développeur Apache NiFi pour intervenir sur une mission en Île-de-France. 📍 Localisation : Île-de-France (2 jours/semaine sur site) 💰 TJM : 450 € 📅 Démarrage : 01/04/2026 📆 Fin de mission : 31/12/2026 🚀 Missions Au sein de l’équipe Run Flux , vous interviendrez sur des environnements critiques autour des plateformes Apache NiFi (environ 100 instances). À ce titre, vous serez en charge de : La mise en place, l’administration et la sécurisation des plateformes NiFi La conception et le développement de flux de données critiques L’automatisation des déploiements sur des environnements Cloud (GCP / Azure) en IaaS & CaaS Le monitoring de la disponibilité et des performances des plateformes L’automatisation avancée via scripting (Groovy) Contexte 24/7 , avec interventions possibles en heures non ouvrées selon la criticité. 🛠️ Environnement technique Apache NiFi (expertise avancée requise) Groovy / Java (scripting & automatisation) GitLab / GitHub Bases de données : Oracle, SQL Server, PostgreSQL Data & stockage : BigQuery, BigTable Langages & formats : SQL, JSON, XML, CSV Environnements Cloud : GCP / Azure 🎯 Compétences attendues Maîtrise des architectures de flux de données et des plateformes NiFi Capacité à concevoir, industrialiser et documenter des solutions techniques Autonomie dans la résolution de problématiques techniques complexes Bonne compréhension des enjeux de qualité, sécurité et traçabilité des données Expérience en environnement DevOps 🤝 Soft skills Excellente communication (écrite et orale en français) Esprit d’analyse et force de proposition Rigueur, respect des délais et sens de la qualité Esprit d’équipe et partage des connaissances Démarche d’amélioration continue 🎓 Profil recherché Formation Bac+5 (école d’ingénieur ou université) ou équivalent Minimum 3 ans d’expérience sur des problématiques de flux/data Une expérience dans le secteur retail / grande distribution est un plus 🔎 Profil cible Développeur Apache NiFi Expérience : 3 ans et + Compétences clés : Apache NiFi, Groovy
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance
CDI

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
450-530 €
Nouvelle-Aquitaine, France
Expert Senior Google Workspace, Data & IA 1. Contexte de la mission Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. 2. Description des missions Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
61 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous