Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery
Votre recherche renvoie 57 résultats.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Offre d'emploi
Consultant·e Customer Technology Advisor / Delivery Manager + Product Owner
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud , de la Data , du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes, environnements conteneurisés et outillage DevOps). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principalesRelation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Faciliter l’alignement entre les besoins métiers et les capacités techniques des plateformes Cloud, Data et DevOps . Adoption & Acculturation Accompagner les équipes dans l’adoption des nouvelles offres et fonctionnalités. Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Sensibiliser les utilisateurs aux bonnes pratiques autour des plateformes OpenShift , des chaînes CI/CD Jenkins et des services Data/Cloud. Expertise & Innovation Participer à l’expérimentation de nouvelles technologies ( sandbox, POC ). Être référent sur les technologies Data, Cloud, conteneurisation, orchestration et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Contribuer à la promotion et à l’adoption de solutions basées sur OpenShift , Jenkins , architectures distribuées et services managés Cloud. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres. Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Participer à l’amélioration de l’expérience utilisateur sur les offres de plateformes, de déploiement et d’industrialisation. Environnement techniqueBig Data & NoSQL Data Lakehouse Cloudera Teradata MongoDB Bases de données PostgreSQL Oracle MySQL SQL Server Redis Cloud Public (GCP) BigQuery Firestore Conteneurisation, plateformes & DevOps OpenShift Kubernetes Docker Jenkins GitLab CI/CD / outils d’industrialisation API management, déploiement applicatif et automatisation Environnements techniques Data Streaming Architectures distribuées Plateformes applicatives et environnements conteneurisés
Mission freelance
Développeur Search Engine (ElasticSearch & Node.js)
HAYS France
Publiée le
BigQuery
CI/CD
Elasticsearch
1 an
500-680 €
Lille, Hauts-de-France
Nous recherchons un Développeur Search Engine pour rejoindre une équipe composée de deux développeurs et d’un Product Owner. Votre rôle sera de travailler sur l’ amélioration continue du moteur de recherche utilisé par plusieurs plateformes e‑commerce internationales, dans un contexte de fort trafic et de hautes exigences de performance . Il s'agit d’une mission longue, avec une réelle volonté d’investissement et de montée en compétences au sein de l’équipe. Missions principales : Concevoir, développer et optimiser le moteur de recherche basé sur ElasticSearch pour des sites à fort trafic. Implémenter des fonctionnalités avancées pour améliorer la pertinence et la performance des recherches. Collaborer avec l’équipe pour définir les meilleures pratiques de développement et garantir la qualité du code. Exploiter BigQuery pour l’analyse des données et l’optimisation des requêtes. Participer à la mise en place et au suivi de la chaîne CI/CD et des pratiques DevOps . Contribuer à la démarche Software Craftsmanship et aux méthodes Agiles . Stack technique ElasticSearch (niveau expert – usage avancé) Node.js , TypeScript , NestJS Elastic Cloud BigQuery , SQL avancé GCP – Google Cloud Platform CI/CD, Git, automatisation Clean Code, TDD, Craft, DDD Hard skills attendus Très forte expertise en ElasticSearch dans un contexte complexe / high‑traffic. Maîtrise de Node.js et TypeScript . Connaissance approfondie des principes de Software Craftsmanship . Solides compétences en analyse de données / SQL / BigQuery . Maîtrise des pratiques DevOps et de la chaîne CI/CD . Très bonne compréhension des méthodes agiles .
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Offre d'emploi
Data Engineer, GCP (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Mission freelance
Lead Analytics Engineer
Deodis
Publiée le
Google Cloud Platform (GCP)
1 an
500-550 €
Île-de-France, France
Poste stratégique au sein d’une équipe Data centrale visant à renforcer l’autonomie des Data Analysts et à améliorer l’exploitation des données dans une organisation décentralisée. La mission consiste à piloter l’évolution d’une plateforme analytics basée sur des technologies modernes (GCP, BigQuery, DBT, BI), assurer la qualité et la modélisation des données, développer des solutions de self-service analytics et accompagner la communauté Data à travers des bonnes pratiques et du management d’équipe. Le rôle inclut également la gestion de la roadmap analytics, l’industrialisation des pipelines de données, l’optimisation des modèles DBT et l’accompagnement des équipes dans un contexte de transition managériale.
Offre d'emploi
Archi DevOps/FinOps pour EDF
Signe +
Publiée le
24 mois
55k-60k €
393-600 €
Paris, France
Mission : Data Architecte DEVOPS/FINOPS transverse avec une expertise GCP ++. Votre rôle sera de concevoir et de mettre en œuvre des architectures de données cloud robustes et performantes. Définir les standards architecture et les règles d'urbanisation Data, IA, DevOPs, MLOPS, IT & Cloud. Mettre en place la gouvernance des modèles et encadrer l'usage des LLM Gérer les risques éthiques et réglementaires. Rédiger, maintenir et diffuser les bonnes pratiques Data, OnPremise, Cloud et DevOPS. Définir et intégrer les principes FinOPS dès la conception des architectures. Préconiser les suivis de la performance Data IA et pour superviser les pipelines. Optimiser les coûts GPU & Cloud et aussi mettre en place un plan FinOps IA. Participer à la définition de modèles de refacturation. Expertise Requise: Solide maîtrise de GCP (BigQuery, Composer, Airflow, DataProc, DataFlow). Expérience avec Terraform, Git, Jenkin. Expérience en environnements hybrides (on-premise). Solide expérience en DevOPS, MLOPS (Git, GitLab, Gitlab-CI, GitOps, Helm, ML Pipelines etc.). Expérience significative sur les outils DevOPS, Orchestration, Conteneurisation (Terraform, Ansible, Docker, Kubernetes etc.). Solide maitrise de FinOps, Optimisation, Supervisions (ELK, Grafana, Prometheuse, Google Monitoring etc.) 2-3j/semaine sur site Compétences techniques requises : Google Cloud Platform data architecture MLOps Google Cloud BigQuery DevOps Composer Apache Airflow
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Mission freelance
Data Scientist Senior – Recherche Opérationnelle & E-commerce
BEEZEN
Publiée le
Google Cloud Platform (GCP)
6 mois
400-550 €
Île-de-France, France
● Technologies Langages : Python, Java, SQL. Maths & RO : Métaheuristiques, Programmation linéaire, Optimisation combinatoire, Inférence causale. Outils RO : OR-Tools, ou solveurs commerciaux. Cloud & Data : GCP, BigQuery, Docker, Kubernetes, Airfl ow (Cloud Composer). ● Maîtrise impérative de l’environnement GCP. ● Formation : Bac+5 (Master ou École d'Ingénieur) spécialisé en Recherche Opérationnelle, Mathématiques Décisionnelles ou Supply Chain Analytics. ● Expérience : au moins 7 ans en Data Science
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
57 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois