Trouvez votre prochaine offre d’emploi ou de mission BigQuery

Votre recherche renvoie 18 résultats.
Suivant
Freelance

Mission freelance Data Engineer - Expertise SQL/BigQuery

WHEEL OF WORK
Publiée le

36 mois
390-450 €
Lille, Hauts-de-France
Le profil interviendra au sein de la direction informatique France, dans le service Data. Il intégrera une Squad Data en charge d’un périmètre fonctionnel. Au cours de sa mission, le consultant : - Participera aux rituels agiles de l’équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l’entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l’exploitation de la Data Mission long terme (3 ans)
Freelance

Mission freelance Consultant Métier / Business Analyst (H/F)

CITECH
Publiée le
Azure
Azure Data Factory
Big Data

36 mois
450-520 €
Paris, France
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸Participer à l’identification des utilisateurs de l’application ainsi que des différents services, fonctions bancaires et techniques utilisés (définition de l’AS-IS) 🔸Réaliser la cartographier les différentes interfaces sollicitées par l’écosystème, 🔸Participer à l’identification des contraintes réglementaires, de conformité, spécificités 🔸Rédiger dans la note de cadrage les objectifs métier et besoins 🔸Participer à l’identification : Des bénéfices clients : évolutivité, qualité de service, rapidité d’exécution, tarification adaptée Des bénéfices pour les banques utilisatrice de SYSCO : time to market, optimisation des coûts de développements, satisfaction client, qualité de service, PNB, Des risques à faire et à ne pas faire 🔸Assurer un rôle de conseil et d’aide à la construction de solutions les plus performantes et appropriées aux besoins du métier, avec une maîtrise des coûts et du délai sur les solutions proposées 🔸Participer à la définition de la trajectoire de transformation 🔸Organiser et de participer à l’animation des forums et comités appropriés (comités définis dans la gouvernance et comités adhoc) 🔸Participer à l’évaluation des changements générés : Définition des cibles et de la profondeur du changement Impacts sur le modèle organisationnel cible (TOM) Front/Middle/Back Identification des ressources clés pour le pilotage des actions de changement Définition du plan de conduite du changement 🔸Participer à la rédaction du dossier d’architecture et de sécurité : Exposition des différents modèles d’architecture que Natixis pourrait mettre en place Trajectoire de désimbriquassions des fonctions inclues dans SYSCO Plan de continuité des données et accès des acteurs Pourquoi rejoindre Citech ? 🤔 - Une ambiance de travail conviviale avec des afterworks organisés régulièrement ! 🤗 - Des missions de longues durées. - Des formations adaptées à vos envies et vos aspirations. - Une mobilité que si vous le souhaitez 🚗 - Un accompagnement personnalisé avec un suivi régulier (autour d’un café ou un thé, c’est vous qui choisissez 😉) - Une mutuelle avantageuse pour vous mais aussi pour les membres de votre famille 😃 - Une flexibilité sur la gestion de vos repas 🍱 - Un statut Cadre et une convention collective SYNTEC. - Prime d’intéressement. Alors qu’attendez-vous pour nous rejoindre ? 🌟
CDI

Offre d'emploi Consultant Métier / Business Analyst (H/F)

CITECH
Publiée le
Azure
Azure Data Factory
Big Data

50k-70k €
Paris, France
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸Participer à l’identification des utilisateurs de l’application ainsi que des différents services, fonctions bancaires et techniques utilisés (définition de l’AS-IS) 🔸Réaliser la cartographier les différentes interfaces sollicitées par l’écosystème, 🔸Participer à l’identification des contraintes réglementaires, de conformité, spécificités 🔸Rédiger dans la note de cadrage les objectifs métier et besoins 🔸Participer à l’identification : Des bénéfices clients : évolutivité, qualité de service, rapidité d’exécution, tarification adaptée Des bénéfices pour les banques utilisatrice de SYSCO : time to market, optimisation des coûts de développements, satisfaction client, qualité de service, PNB, Des risques à faire et à ne pas faire 🔸Assurer un rôle de conseil et d’aide à la construction de solutions les plus performantes et appropriées aux besoins du métier, avec une maîtrise des coûts et du délai sur les solutions proposées 🔸Participer à la définition de la trajectoire de transformation 🔸Organiser et de participer à l’animation des forums et comités appropriés (comités définis dans la gouvernance et comités adhoc) 🔸Participer à l’évaluation des changements générés : Définition des cibles et de la profondeur du changement Impacts sur le modèle organisationnel cible (TOM) Front/Middle/Back Identification des ressources clés pour le pilotage des actions de changement Définition du plan de conduite du changement 🔸Participer à la rédaction du dossier d’architecture et de sécurité : Exposition des différents modèles d’architecture que Natixis pourrait mettre en place Trajectoire de désimbriquassions des fonctions inclues dans SYSCO Plan de continuité des données et accès des acteurs Pourquoi rejoindre Citech ? 🤔 - Une ambiance de travail conviviale avec des afterworks organisés régulièrement ! 🤗 - Des missions de longues durées. - Des formations adaptées à vos envies et vos aspirations. - Une mobilité que si vous le souhaitez 🚗 - Un accompagnement personnalisé avec un suivi régulier (autour d’un café ou un thé, c’est vous qui choisissez 😉) - Une mutuelle avantageuse pour vous mais aussi pour les membres de votre famille 😃 - Une flexibilité sur la gestion de vos repas 🍱 - Un statut Cadre et une convention collective SYNTEC. - Prime d’intéressement. Alors qu’attendez-vous pour nous rejoindre ? 🌟
Freelance

Mission freelance Devops

ICSIS
Publiée le
Agile Scrum
Ansible
Automatisation

36 mois
400-550 €
Lille, Hauts-de-France
La mission consiste à : - Concevoir, déployer, gérer et optimiser des plateformes d’intégration et déploiement continues (CI/CD) pour les produits - Développer des solutions pour superviser, automatiser, améliorer la performance, la scalabilité, le coût ou l’empreinte carbone des infrastructures - Intégration et tests continus - Rédaction des documentations - Identification, analyse et traitement des dysfonctionnements - Surveillance de l’exploitation et de la qualité de production via des métriques factuelles - Gestion des environnements et de la sécurité - Collaborer avec l’ensemble de l’équipe applicative pour contribuer à l’amélioration continue des produits Compétences demandées : - Connaissance générale des développements et des infrastructures IT - Java, Node JS, Python... - Cloud (environnement GCP principalement) - Terraform, Kubernetes, Docker, GKE, Mango... - Anglais - Mission basée en métropole lilloise
Freelance

Mission freelance Digital Data Engineer

Nicholson SAS
Publiée le
Adobe
Agile Scrum
BigQuery

18 mois
450-580 €
Niort, Nouvelle-Aquitaine
Au sein du département Solutions Engagement Clients de la DDSI et en relation étroite l’Ecosystème Digital et avec le Marketing Digital, vous intégrerez le projet Canaux Digitaux (Organisation Safe). Le périmètre de l’équipe DDA est la donnée des parcours utilisateurs et la données d’usage des produits au travers des dispositifs de l’Ecosystème Digital de la marque. LIVRABLES: Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Google Data Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe)
Freelance

Mission freelance Data Analyst

ESENCA
Publiée le
BigQuery
Machine Learning
Power BI Desktop

6 mois
400-430 €
Lezennes, Hauts-de-France
Les principaux domaines de responsabilité seront : ● Réaliser des analyses pour répondre aux différentes demandes business. ● Construire, automatiser et maintenir des reportings avec nos outils BI. Apporter votre expertise à l’interprétation des rapports. ● S’assurer de la cohérence et de la qualité des données utilisées pour conduire les analyses ● L’accompagnement et l’acculturation sur les bonnes pratiques de l’analyse de données. Vous êtes Data Driven et contribuez à la diffusion des savoirs-faire QUALIFICATIONS ATTENDUES 🚀 ● Master Big Data, Machine Learning, Ingénierie, informatique ou tout autre formation équivalente. ● Très organisé avec un degré élevé d’appropriation. ● Solides compétences interpersonnelles et relationnelles. ● Solides compétences analytiques et souci du détail. ● Vous avez au moins 2 ans d’expérience en tant que Data Analyst. ● Technique : bonne connaissance des outils d’analyse de données tels que Data Studio, PowerBI, Looker ou autres ● Langues : Anglais courant (écrit et oral). QUALIFICATIONS OPTIONNELLES ● Expérience dans les frameworks d’IA et de Machine Learning (Tensorflow, Keras, PyTorch, MLOps, etc) ● La maîtrise d’outils de data pipeline (Airflow, Dataflow, Kafka)
Freelance

Mission freelance DATA ENGINEER GCP

UCASE CONSULTING
Publiée le

36 mois
Paris, France
Bonjour, Je recherche pour un de mes clients dans le domaine retail luxe un Data Engineer GCP : Au sein du Data services, vous intégrez les equipes Data Engineer GCP, vos activités sont les suivantes : Réaliser des analyses et des études d’impacts en amont des développements Concevoir des solutions en respectant les bonnes pratiques de développement Réaliser les développements des évolutions des applications DATA Assurer le support aux testeurs lors des phases de recette Documenter les solutions techniques réalisées Livrables attendus Code applicatif Documentation technique Environnement technique GCP, BigQuery, Looker, Python, Pandas, SQL, Spark, DBT, GitLab, Teraform, Kubernetes Compétences requises : 3 ans d’expériences en développements sur la platform GCP notamment BigQuery, Looker et Data Proc Très bonne maitrise de Python, Pandas, SQL, Spark et DBT Bonne expérience sur Kafka comme source de données Très bonne connaissance d’une chaine de CI/CD avec Teraform, Gitlab, Kubernetes Bonne connaissance de l’agilité (framework scrum) Bonne capacité à appréhender les besoins métiers Proactif, autonome, rigoureux Capacités d’écoute, d’analyse et de synthèse A vos candidatures !
CDI

Offre d'emploi Consultant Data (F/H)

BI NEWVISION
Publiée le

40k-55k €
Paris, France
Dans le cadre de la mise en oeuvre d’un reporting concernant l’activité de notre filiale de négoce, il s’agira de modéliser dans BigQuery des données applicatives vers un modèle à vocation décisionnel via la définition d’objet Métier et réaliser de tableaux de bord avec Power BI et Google Data Studio. Le profil sera amené à : - Concevoir et mettre en oeuvre le modèle de données décisionnel à partir des données applicatives remontées dans BigQuery - Concevoir et mettre à disposition des objets Métier - Définir et mettre en oeuvre des règles de Data Quality - Développer des rapports Google Data Studio - Développer des rapports Power BI - Rédiger des spécifications techniques - Participer à la recette technique et fonctionnelle - Assurer une maintenance et un support des solutions mises en oeuvre Compétences - Expérience significative BigData / Google BigQuery - Expérience significative Datavisualisation / Google Data Studio / Power BI - Expérience Google Clood Plateform (notamment dataprep) - Sens de la communication et qualité relationnel Livrables - Tables et vues BigQuery - Rapports Google Data Studio - Rapports Power BI - Documentation technique - Manuel d’utilisation Compétences demandée : Big Query Power BI Google Data Studio GCP
Freelance

Mission freelance Chef de projet Technico fonctionnel DATA

HIGHTEAM
Publiée le

24 mois
Île-de-France, France
Dans le cadre d’un projet critique autour du pilotage des ventes et produits, vous travaillererez au sein de l’équipe Data BI dans la direction Data, CRM et Services. Vous devrez pouvoir gérer des projets avec l’aide d’un chef de projet AMOA ou en autonomie grâce à votre compréhension des enjeux fonctionnels. DESCRIPTION DE LA MISSION : Capacité à prendre en charge des projets de moyenne envergure de bout en bout avec autonomie (cadrage, conception, développement, recette, accompagnement) Participer à l’analyse du besoin avec la supervision du PPO ou Manager et la conception du modèle de données permettant de répondre au besoin. Analyse et compréhension de la donnée Conception et modélisation du besoin dans une base de données Conception et développement des solutions techniques d’intégration, transformation et extraction des données dans les différents environnements Data (Datalake, Datawarehouse ). Réaliser la recette technique et animer la recette fonctionnelle avec les utilisateurs Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) Être force de proposition sur l’amélioration de notre stack Data Faire le reporting d’avancement des travaux Assurer la maintenance corrective ou évolutive S’assurer de la performance des travaux menés S’assurer de la cohérence des livrables avec les règles et bonnes pratiques définies. ENVIRONNEMENT TECHNIQUE L’environnement Data dans le cadre de cette mission est actuellement constitué principalement d’une base de données Teradata (Cloud) ainsi qu’un environnement BigQuery. L’outil de prédilection exploité est Talend. Langages/Framework : SQL, BigQuery, Python, Java, Shell Outils : Talend Base de données : Teradata, BigQuery, Hadoop, SQL Server, IBM DB2 Des compétences associées au technologies GCP est un plus. ENVIRONNEMENT FONCTIONNEL : Le projet cible vise à modéliser et alimenter un ou plusieurs Datamart permettant de restituer les besoins de pilotage des métiers du Commerce et de l’exploitation. Ces besoins font parti d’une activité avec un enjeu majeur pour le groupe et constituera dans un suivi très spécifique des ventes et performances associées.
Freelance

Mission freelance Chef de projet DATA (F/H)

INFOGENE
Publiée le

12 mois
400-550 €
Paris, France
Dans le cadre d’un projet critique autour du pilotage des ventes et produits, nous recherchons un chef de projet Data confirmé/senior qui travaillera au sein de l’équipe Data BI dans la direction Data, CRM et Services. Celui-ci devra pouvoir gérer des projets avec l’aide d’un chef de projet AMOA ou en autonomie grâce à sa compréhension des enjeux fonctionnels.  DESCRIPTION DE LA MISSION Capacité à prendre en charge des projets de moyenne envergure de bout en bout avec autonomie (cadrage, conception, développement, recette, accompagnement) Participe à l’analyse du besoin avec la supervision du PPO ou Manager et la conception du modèle de données permettant de répondre au besoin. Analyse et compréhension de la donnée Conception et modélisation du besoin dans une base de données Conception et développement des solutions techniques d’intégration, transformation et extraction des données dans les différents environnements Data (Datalake, Datawarehouse ). Réaliser la recette technique et animer la recette fonctionnelle avec les utilisateurs Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) Être force de proposition sur l’amélioration de notre stack Data Faire le reporting d’avancement des travaux Assurer la maintenance corrective ou évolutive S’assure de la performance des travaux menés S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies  ENVIRONNEMENT TECHNIQUE L’environnement Data dans le cadre de cette mission est actuellement constitué principalement d’une base de données Teradata (Cloud) ainsi qu’un environnement BigQuery. L’outil de prédilection exploité est Talend. Langages/Framework : SQL, BigQuery, Python, Java, Shell Outils : Talend Base de données : Teradata, BigQuery, Hadoop, SQL Server, IBM DB2 Des compétences associées au technologies GCP est un plus.  ENVIRONNEMENT FONCTIONNEL Le projet cible vise à modéliser et alimenter un ou plusieurs Datamart permettant de restituer les besoins de pilotage des métiers du Commerce et de l’exploitation. Ces besoins font parti d’une activité avec un enjeu majeur pour le groupe et constituera dans un suivi très spécifique des ventes et performances associées.
Freelance

Mission freelance Data engineer GCP

TEOLIA CONSULTING
Publiée le

36 mois
350-400 €
Lille, Hauts-de-France
Concevoir et modéliser le nouveau Data Model de la Supply Chain Digital Platform (SCDP) du groupe ADEO oncevoir l’architecture des différentes couches du Data Model SCDP développer les pipelines de données du Data Model SCDP Environnement Technique : Windows 10, Git, BigQuery, GCP, Jira, Agilité Kaban, Terraform, Kestra, sql
Freelance

Mission freelance Un developpeur Java Devops ayant des connaissances Cloud GCP sur Plessis-Robinson + TT

Almatek
Publiée le

3 mois
Le Plessis-Robinson, Île-de-France
Almatek recherche pour un de ses clients, grand compte, Un développeur Java Devops ayant des connaissances Cloud GCP sur Plessis-Robinson + TT Une prestation de développement back data sur des environnements Docker, Cloud GCP avec une mise en production automatique : Les connaissances techniques requises : Maitrise de Java, Python, SQL Pratique Cloud GCP GitLabEE L’expérience de modélisation de données, et de stratégie de tests. Une connaissance de BigQuery, Airflow, Beam est un plus. Le prestataire devra avoir un bon niveau de maitrise sur les compétences suivantes : Projet en méthode Agile Anglais (Documentation écrite + Partage avec des équipes internationales) 2 jours par semaine sur Site Plessis-Robinson.
Freelance

Mission freelance Architecte Cloud

ESENCA
Publiée le

12 mois
Lille, Hauts-de-France
- Concevoir la stratégie cloud pour la résilience, la sécurité, la performance et le Finops ainsi que les normes utilisables par les ops. - Développer, mettre à jour et organiser les infrastructures cloud. - Répondre aux problèmes techniques - Travailler en collaboration avec le Finops pour contrôler les coûts. Vous avez : - Une expérience solide en tant que Tech lead (Software ou Cloud) Architect. - Une excellente maîtrise technique des environnements Cloud GCP - Des connaissance des outils Datadog, BigQuery, Kubernetes - Vous maitrisez l’industrialisation des déploiements : Github Actions, Terraform. - Vous savez concevoir une architecture cloud en suivant les meilleures pratiques sur les 5 domaines : performance, sécurité, fiabilité, optimisation des coûts, excellence opérationnelle. - Vous avez déjà évolué au sein d’une culture DevOps - Vous disposez d’une vision globale et savez prendre de la hauteur pour assurer la cohérence technique des plateformes, - Vous aimez développer l’interdépendance et travailler en équipe, - Vous savez vous appuyer sur vos qualités de communication pour fédérer et mobiliser
Freelance

Mission freelance Technicien d’exploitation Confirmé U$

WHEEL OF WORK
Publiée le

12 mois
340-400 €
Lille, Hauts-de-France
Nos utilisateurs se situent dans toutes les Business Units et plateformes. Actuellement, nous avons au total environ 30 millions d’exécutions mensuelles. Nous devons faire évoluer certains de ces produits pour fournir plus d’autonomie à nos utilisateurs, optimiser les MCO (ex: automatiser des actions en s’interfaçant avec d’autres outils, ex ServiceNOW, développements d’API, intégration à des front...), et offrir des services cloud et cloud native. Le périmètre de travail tend à aller vers le cloud native. Ensuite, d’autres actions tourneront sur : Automatisation/autoremediation (Ansible, python, Git (CI/CD) Data driven, exploiter et faire parler la donnée, la corréler pour agir en automatique (Bigquery) Observabilité (Datadog, PagerDuty) Infrastructure et services GCP
Freelance

Mission freelance DATA ENGINEER M

Coriom Conseil
Publiée le

20 mois
Lille, Hauts-de-France
Nous recherchons donc un Data Engineer pour venir compléter l’équipe Data Les activités sont réalisées : - Il participe aux ateliers techniques pour la récupération de nouvelles données. - De part l’analyse des données, il est force de proposition pour l’ajout de nouveaux services utilisateurs / métiers. - Il développe et maintient les scripts et programmes existants - Il développe des rapports métiers (PowerBI et DataStudio) - Il conçoit et développe de nouveaux services utilisateurs - Il répond ponctuellement aux demandes métiers, Support, Recette pour des export des données / ciblages. - Il développe et maintient l’architecture Data pour de nouveaux besoins. Le développeur est en relation avec les équipes membres du dispositif organisationnel IT: - Équipes Projets (ex: développeurs affectés sur mêmes/autres projets, partage de connaissance et expertise) - Equipe Changes (ex: versioning des codes, environnements de développement/qualification/pré-production) - Equipe Operations (ex: packaging, MEP, Run) - Équipe Kaizen (ex: qualité, amélioration continue, méthodes, connaissances, risques) - Equipe Test (ex: campagnes/exécution de tests, anomalies, correction de bugs) - Equipe 2nd Level Support (ex: assistance aux partenaires ENKI) - Equipe Safety (ex: règles de sécurité, normes à respecter) - Equipe User Experience (ex: prototypes visuels, exigences fonctionnelles) Compétences Indispensables : - GCP (BigQuery, DataFlow, Cloud Functions, Cloud Storage) - Python - DataStudio - SQL / Java / Git Compétences appréciées mais non exigées: - PowerBI - Apache Nifi - Machine learning - Terraform
Freelance

Mission freelance Devops

ESENCA
Publiée le

12 mois
Lille, Hauts-de-France
Au sein de la product team IaaS Solutions (Compute / backup / Storage), notre rôle est de fournir des solutions d’hébergement de machines virtuelles (IaaS), des solutions de stockage et de backup, pour nos produits on premise mais aussi chez GCP. Dans ce contexte, je recherche un devops qui pourra nous accompagner sur nos sujets d’automatisation de l’infrastructure, aussi bien en ce qui concerne le RUN que le BUILD - Automatisation des actes récurrents d’administration de l’infrastructure - Build de solutions de delivery automatisées - Reprise et maintien en condition opérationnelle de solution existantes Compétence techniques demandées : - Python (3.8) - SQL ( pour bigquery GCP ) - Développement d’API (REST,Swagger) - Notion de développement front ( typescript,JSX,HTML,CSS ) - CI/CD ( github actions, gitlab ci , jfrog) - Git Le candidat devra idéalement avoir des connaissances sur l’infrastructure (serveurs, datacenter, stockage ...), il devra impérativement avoir une expérience dans une équipe Agile (Kanban ou Scrum) La mission est éligible au télétravail à raison de 2 jours par semaine maximum Merci de bien prendre en compte l’ensemble des compétences recherchées avant de proposer un candidat. Aucun entretien ne pourra être tenu si les compétences demandées ne sont pas présentes dans le CV du candidat.
Suivant

Nouveauté ! Bénéficiez dès maintenant de plus de 350 deals dénichés pour vous (logiciels, outils et bien d'autres).