Trouvez votre prochaine offre d’emploi ou de mission BigQuery
Votre recherche renvoie 27 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance DATA Engineer - Python, Spark, SQL, DBT, BigQuery, Airflow, GCP
SKIILS SAS
Publiée le
2 ans
Paris, France
En interaction avec les membres de l’équipe, la prestation consiste à :
- Construire et maintenir de pipelines data robustes et scalables
- Contribuer à la montée en compétence des profils junior de l’équipe
- Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données
- Organiser et structurer le stockage des données
- Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
- Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données
- Construire et maintenir les workflows de la CI/CD centrés données Collaborer avec les autres data ingénieurs pour appliquer les bonne s pratiques en vigueur,
- Participer à la guilde des data ingénieurs
- Assurer l’évolutivité, la sécurité, la stabilité des environnements
- Contribuer et veiller à la mise à jour de la documentation
- Faire de la veille technologique active dans le domaine
- Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
stack technique : Python, Spark, SQL, DBT, BigQuery, Airflow, GCP

Mission freelance Data Analyst SQL (postegre, BigQuery) metabase - Connaissance marketing digital
HIGHTEAM
Publiée le
3 ans
Île-de-France, France
Pour mener à bien votre mission, vous serez amené à interagir avec :
- Les Product Owners et Product Managers
- L’équipe Produits Publicitaires
- L’équipe Opérationnel des offres
- L’ensemble des data analystes de l’équipe Analytics
Le/la Data Analyst reportera directement au responsable d’équipe Analytics Solutions B2B
Compétences / Aptitudes clés attendues :
- Notions voir expertise en marketing digital, SEA, SEO
- Capacité à synthétiser les données & mettre en valeur des données (datavisualisation)
- Bonnes capacités d’analyse et rédactionnelle
- Orientation process et performance.
- Bon relationnel et capacité d’animation en transverse
- Anglais professionnel
Compétences techniques attendues :
- Excellente maitrise du langage SQL (Posgre/BigQuery)
- Excellente maitrise d’un ou plusieurs langages de programmation parmi : SAS, R, Python
- Maîtrise des outils bureautiques et suite office 365 indispensable
- Bonne maitrise d’un outil de Dataviz (idéalement Metabase/PowerBI)
- La connaissance de l’environnement GCP et de BigQuery est un plus
Offre d'emploi Data Architect GCP BigQuery H/F
Robert Walters
Publiée le
Île-de-France, France
Au sein de l'équipe data, nous recherchons le/la futur(e) Data Architect GCP BigQuery H/F. Votre rôle principale sera de participer à la construction de la future plateforme de données moderne tout en garantissant le maintient des systèmes existants.
Rattachement hiérarchique : Lead data architect.
Missions principales du/de la Data Architect GCP BigQuery H/F:
En soutien de stratégie data établie.
Conception d'architecture & mise en place de briques technologiques des plateformes des données.
Pilotage de l'évaluation et de l'optimisation des architectures de données.
Documentation d'architecture.
Animation d'ateliers, informer et leader la communauté technique.
Être le/la garant(e) de la cartographie technologique.
Environnement technique :
Big Data (EMR, Spark..).
Plateformes de données (GCP BigQuery, AWS Redshift, Athena, S3).
Processus et outils de développement modernes (DevOps, Git, CI/CD…).
Approche data mesh.

Offre d'emploi Data ingénieur GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform
Power BI Desktop
Île-de-France, France
Bonjour à tous :)
Nous recherchons un Data ingénieur pour l’un de nos client de la cadre de la modernisation des plateformes BI vers le cloud GCP, celui-ci doit avoir au moins trois ans d’expériences et avoir une maîtrise des outils suivants :
-Google Cloud Platform
- BigQuery
- SQL
- Python
- DBT
- Power BI (en option)
Si vous êtes intéressé, n’hésitez pas et postulez !

Mission freelance Data Steward
INSYCO
Publiée le
Big Data
BigQuery
Marketing digital
24 mois
100-600 €
Paris, France
Bonjour,
Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à l'adresse <freelance (à) insyco . fr> avec les informations suivantes :
- Argumentaire écrit répondant de façon ciblée au besoin
- CV (en docx)
- Date de disponibilité
- Tarif journalier EPE/4208 en objet du mail
--- LE CONTEXTE ---
La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision.
Nous avons créé en interne une Vision Client Unifiée : via la génération d’un identifiant unique, les données sont regroupées à la maille utilisateur et mises à disposition des équipes CRM via un outil de ciblage.
Le référentiel actuel doit être simplifié en termes de distribution de la donnée, optimisé dans son architecture et renforcé sur la partie contrôle de la qualité. Un pré cadrage du projet en cours.
Dans ce cadre, nous créons une équipe composée d’un PO, un data ingénieur et un data stewart.
Nous attendons du Data Stewart qu’il assure le contrôle et le suivi de la qualité des données utilisées.
Les missions de cette équipe seront de cadrer et mettre en place la version simplifiée de la Vision Client Unifiée.
La prestation de Data Stewart consistera à participer à :
- La manipulation de la donnée
o Créer des requêtes spécifiques pour interroger nos sources de données
o Contrôler que les données sont consistantes et organisées conformément aux règles métiers.
o Lister les données sensibles à mettre sous contrôle.
- La définition et suivi de la qualité des données
o Réaliser des audits de la donnée
o Définir les règles de formatage et de mise en qualité de la donnée
o Mettre en œuvre des actions correctives sur la donnée
o Faire respecter les indicateurs de qualité de données
o Mettre à jour les reportings pour monitorer la qualité des données
o Participer au déploiement des processus et règles de qualité des données définis
o Garantir la maîtrise du cycle de vie de la donnée et sa qualité
- S'assurer de la conformité des données et des traitements dans le respect de la réglementation sur la protection des données personnelles
- Participer à la gestion des métadonnées
o Créer et mettre à jour la cartographie des données, des flux, des traitements
o Mettre à niveau les dictionnaires des données en collaboration avec les équipes techniques
o Créer et mettre à jour des métadonnées techniques et fonctionnelles (nomenclature, référentiel notamment)
- Alimenter la documentation et le(s) glossaire(s) partagés
- Contribuer à l’animation des parties prenantes autour du cycle de vie de la donnée
- Accompagner les data Owners dans la maitrise de la donnée
- Contribuer aux différents projets data de la direction.

Mission freelance DATA ENGINEER GCP - JAVA H/F
Squaar
Publiée le
BigQuery
Data Warehouse
Google Cloud Platform
6 mois
500 €
Paris, France
Lieu : Nord de Paris,
TJM : 500€ / Jour,
Rythme : 3/5j de présence sur site par semaine,
Nous recherchons pour notre client un : DATA Engineer GCP - Java H/F dans le cadre d’une mission Freelance de 6 mois minimum.
VOS MISSIONS :
Vous ferez partie d’une équipe DATA d’une dizaine de personnes, vous serez en particulier dédié(e) à un projet lié à la RGPD , puisque vous aurez en charge de garantir la qualité des pipelines, d’ assurer le développement des programmes pour collecter, préparer, transformer et diffuser les données (Java, GCP, DATA plateforme interne).
Bien sûr, vous serez également amené à enrichir la plate-forme Data en assurant les conceptions et développements des pipelines de transformation, comprendre et documenter les sphères de données placées sous votre responsabilité : cycle de vie, modélisation, règles de gestion, qualité, scoring, assurer le maintien en condition opérationnelle des socles Data disponibles et exposer un monitoring quantitatif et qualitatif rendant compte de l’état des Data dans le système
Attention, il est impératif d’être orienté Java et d’avoir participer à des projets liés au : masquage, anonymisation et/ou obscurcissement de données !
VOUS :
De formation Bac +4/5 en informatique et traitement de données en particulier et après 5 ans d’expérience de mise à disposition ET modélisation de données dans un environnement technique similaire = Maîtrise exigée sur :
- Langage: Java
- Environnement Cloud: GCP BigQuery
PROCESS :
Après une visio avec un membre de notre équipe, voici les étapes qui vous attendent :
- Rencontre avec le Head of Data et son Lead
- Décision sous 72h
Envoyez-nous votre CV et si vous profil correspond aux attentes de notre client, vous serez contacté par un membre de l’équipe dans les 24h.
Au plaisir d’évoquer votre projet,
Squaar

Offre d'emploi Product Owner confirmé (Anglais impératif)
ICSIS
Publiée le
Agile Scrum
Animation
BigQuery
2 ans
38 700-95 900 €
Lille, Hauts-de-France
La mission consiste à :
- Accompagner les Métiers afin de définir et de formaliser leurs besoins
- Elaborer la vision Produit
- Rédiger les US, construire la backlog, suivre son évolution
- Identifier un MVP
- Préparer et exécuter la recette transverse en étroite relation avec les Métiers et le Scrum Master
- Animer la Road Map au travers des KPIs d’usage des produits, maîtriser la valeur générée
Compétences demandées :
- 5 ans d’expérience en tant que Product Owner dans des contextes internationaux
- Expertise Agile (certification souhaitée)
- Animation d’équipe
- Gestion de la Backlog
- Anglais indispensable
- Connaissances et bagage techniques appréciés
Cette mission vous intéresse ? Contactez-nous.

Mission freelance Administrateur DATA
HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake
3 ans
340-450 €
Bas-Rhin, France
Gestion de la base de données :
Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery.
Evolution de la plateforme data :
Veiller au maintien en condition opérationnelle de la plateforme.
Dette technique :
Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d’action pour réduire cette dette au fil du temps.
Optimisation des performances :
Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery.
Sécurité des données :
Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi.
Intégration des données :
Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d’intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l’entreposage et l’analyse des données.
Sauvegarde et récupération des données :
Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery.

Mission freelance Architecte DATA Big Data, NoSQL Hadoop Spark ETL (Talend) ML
WorldWide People
Publiée le
Apache Spark
BigQuery
Hadoop
12 mois
450-490 €
Mer, Centre-Val de Loire
Architecte DATA Big Data, NoSQL Hadoop Spark ETL (Talend) ML
Localisation : Mer (gare à proximité à 5 min du client)
Besoin :
Rôle transverse et en relation étroite avec CDO, CISO, DPO, architectes fonctionnels et architectes techniques, les chefs de projets de la DSI, cellule Data de la Direction des Opérations
Proposer et optimiser les architectures de données en lien avec les projets. Pour traduire les besoins en solution d’hébergement (On Prem / Cloud), en solutions de stockage de données (structurées / non-structurées), en organisation de données (Datalake, Datawarehouse) et modalités d’alimentation et des restitutions.
S’assure du respect des usages, normes et standards Groupe et leur traduction dans le contexte client (dictionnaire de données). Ceci inclut la bonne gestion des données de référence, des métadonnées et de leur sécurité.
Participation aux comités de gouvernance des données, qualité des données, d’architecture, etc.
Participation au traitement des recommandations d’audit :
• Schéma directeur data
• Définition des principes de stockage, conservation et restitution des données sensibles (DCP) dans de DWH et dans les SI client
Participation aux ateliers de la communauté Data du Groupe
• Pour assurer une veille organisationnelle et technologique
• Pour entendre et répercuter les REX groupe
• Pour représenter le client et présenter les REX et usages client
Etre en mesure de solliciter pertinemment et challenger les interlocuteurs techniques et les fournisseurs (infogérants et éditeurs) sur les sujets Data : Cloud, choix de technos.
Profil
Parcours : connaissance des architectures DATA avec expérience minimum de 3 ans sur un poste similaire
Connaissances / Compétences / Savoir être :
Maîtriser les principales technologies de bases de données (Relationnelles, Big Data, NoSQL), d'infrastructures serveurs (Hadoop, Spark), des technologies de streaming, des ETL (Talend), des outils de data visualisation (Cognos, PowerBI) et de Data Science (Python, MLOps), des API
Connaissance en IA et en Machine Learning
Maitrise du contexte réglementaire (RGPD, AI Act) et de l’état de l’art de la gouvernance de données et de la sécurité associée
Connaissances fonctionnelles banques/valeurs mobilières
Aisance relationnelle : capacité à créer du lien autour de la donnée, de convaincre, d’engager et de travailler en en équipe

Mission freelance Développeur Fullstack Java / Vue JS
ICSIS
Publiée le
Agile Scrum
Apache Kafka
API
2 ans
350-450 €
Lille, Hauts-de-France
La mission consiste à :
- Mise à jour de l’architecture et travaux de conception
- Rédaction des documentations techniques
- Développement de nouvelles fonctionnalités/features/APIs
- Analyse et amélioration des performances du SI
- Revue de code et accompagnement des membres de l’équipe
- Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine
Compétences demandées :
- Min. 3 ans d’expérience en développement (hors stage et alternance)
- Java 11+, SpringBoot, Vue JS, API, Kafka, BDD relationnelles et non relationnelles...
- Intégration continue
- Culture Devops, connaissances Docker et Kubernetes
- Environnement GCP
- Maîtrise et pratique de l’Agile
- Anglais un +
Cette mission vous intéresse ? Contactez-nous.
-lien masqué-

Mission freelance Product Owner confirm
ICSIS
Publiée le
Agile Scrum
Animation
BigQuery
2 ans
400-550 €
Lille, Hauts-de-France
La mission consiste à :
- Accompagner les Métiers afin de définir et de formaliser leurs besoins
- Elaborer la vision Produit
- Rédiger les US, construire la backlog, suivre son évolution
- Identifier un MVP
- Préparer et exécuter la recette transverse en étroite relation avec les Métiers et le Scrum Master
- Animer la Road Map au travers des KPIs d’usage des produits, maîtriser la valeur générée
Compétences demandées :
- 5 ans d’expérience en tant que Product Owner dans des contextes internationaux
- Expertise Agile (certification souhaitée)
- Animation d’équipe
- Gestion de la Backlog
- Anglais indispensable
- Connaissances et bagage techniques appréciés
Cette mission vous intéresse ? Contactez-nous.
-lien masqué-

Mission freelance Architecte Cloud & Data (FH)
Taleo Capital
Publiée le
BigQuery
Google Cloud Platform
Informatica
1 an
Niort, Nouvelle-Aquitaine
Votre rôle
Nous cherchons un Architecte Cloud & Data pour accompagner notre client du secteur des assurances dans ses enjeux de croissance et de développement.
La mission est à pourvoir rapidement et se situe à Niort (79). Du télétravail partiel est possible.
Fin de la mission : -téléphone masqué- celle-ci pouvant être reconduite.
Missions
La prestation se déroulera pour le compte de la Direction Data Office, au sein de l’équipe Stratégie et Transformation Data. La Data est un élément capital pour l’organisation de notre client et permet d’améliorer sa connaissance des sociétaires (clients) et des personnes associées.
Elle contribue également à des réponses plus adaptées et ciblées pour répondre aux besoins de leurs sociétaires. Le Data Office gère des actifs de données critiques pour les systèmes de commercialisation, des outils CRM, et la mise en place d’initiatives d’IA/RPA.
Notre client opère dans un environnement cloud et utilise des outils de pointe pour la préparation et la visualisation des données.
Le consultant travaillera sous la supervision du Lead Architect de l’entité Stratégie et Transformation Data au sein de la direction Data Office .
Apporter une expertise technique et fonctionnelle dans le contexte des transformations liées à la migration cloud du Patrimoine Data.
Participer aux travaux d’architecture dans les phases de cadrage, d’études et de projets.
Rédiger et présenter les dossiers et les patterns d’architecture pour les décliner dans les projets du Data Office.
Contribuer à la construction et au maintien de la roadmap Data.
Être garant de la stratégie Data et du cadre d’architecture Data portés par la Data Authority auprès des équipes et des projets Data.
Participer à l’évolution du cadre d’architecture Data en alignement avec l’état de l’art.

Mission freelance Data Engineer
ICSIS
Publiée le
Agile Scrum
Apache Kafka
Apache Spark
2 ans
430-500 €
Lille, Hauts-de-France
La mission consiste à :
- Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité
- Transformer des données issues du DataLake afin de les normaliser
- Modéliser la sphère de données
- Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise
- Travailler sur des missions de Data Science en lien avec les données qu’il aura exposées
- Mettre en place des rapports de Dataviz
- Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire
Compétences demandées :
- Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science
- Première expérience en Data Engineering indispensable
- GCP, BigQuery, SQL, Data Studio, Qlikview, Shell, Power BI, Python, Stambia...
- Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication...
- Méthode Agile
- Anglais un+
Cette mission vous intéresse ? Contactez-nous.
-lien masqué-
Mission freelance Data Analyst GCP Looker
Streamlink
Publiée le
1 an
400-550 €
Paris, France
Livrables :
- Tables et vues BigQuery
- Rapports Google Looker Studio
- Rapports Power BI
- Documentation technique
- Manuel d’utilisation
Environnement techniques:
Niveau de compétence
PowerBI
Débutant
Google Looker Studio
Expert
Google Cloud Platform
Expert
Google BigQuery
Expert

Mission freelance Architecte Data
Ilyeum
Publiée le
1 an
550-650 €
Paris, France
Notre équipe estime que 5 ans de pratique dans le domaine de la data sont nécessaire pour réussir à ce poste.
Vous possédez de réelles références sur des enjeux d’architecture.
Technologies : Azure, Databricks, , Informatica
Des bonnes connaissances en GCP BigQuery
Mission freelance Développeur Oracle Interactif Reporting
BEEZEN
Publiée le
1 an
400-490 €
Massy, Île-de-France
Prérequis/ Obligatoire : au moins 1 ans de développement avec la solution Oracle Interactif Reporting.
Développeur/Concepteur
Proposer des solutions de transformations des Reporting OIR vers d’autres solutions BI
Développer les extractions performantes en sql sur BiqQuery
Optimisation des couts des requetes sur Bigquery
Réalisation des scripts python
Livrables
- Développer les requêtes BQY
- Documenter les modèle de données des différentes sources de données pour identifier les tables utilisées
- Documenter les reporting existants par source de données
- Réaliser un tableau de suivi des usages, préconisation des rapports à basculer sur autres solutions BI
Compétences techniques:
- Oracle Interactif Reporting
- SQL
- GCP, Bigquery,
- Script Python
- Gitlab, jenkins
- Jira, Confluence
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !