Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Expérimenté Talend, Snowflake, Azure DevOps, Azure Data Factory, CI/CD, Anglais
Consultant ayant au moins 5 ans d'expérience avec Talend du domaine BI/Data & Analytics - Avoir des connaissances sur Talend - Avoir des connaissances sur SnowFlake - Avoir des connaissances sur la construction de DataWarehouse/Data Mart - La connaissance de l'ingestion de données n'est pas cruciale (car cela hors de portée de mon équipe) - La connaissance d'Azure Data Factory est un plus - Des connaissances sur CI/CD sont agréables à avoir - Expérience avec les données SAP, ce serait un avantage supplémentaire. - Prêt à faire à la fois le mode Support et le mode Projet
Mission freelance
Architecte technique orienté data
Grand groupe dans l'industrie 2 jours de télétravail Contexte : Au sein du DataHub du groupe, l'Architecte Technique Data interviendra sur différents projets. Il intégrera des composants techniques de cybersécurité, participera à l'évolution de la plateforme et proposera une architecture technique data. Profil avec des connaissances en infrastructure système et data. Compétences requises : Snowflake, Synapse, Anglais professionnel. Bonne communication. Grand groupe dans l'industrie 2 jours de télétravail Contexte : Au sein du DataHub du groupe, l'Architecte Technique Data interviendra sur différents projets. Il intégrera des composants techniques de cybersécurité, participera à l'évolution de la plateforme et proposera une architecture technique data. Profil avec des connaissances en infrastructure système et data. Compétences requises : Snowflake, Synapse, Anglais professionnel. Bonne communication.
Offre d'emploi
Administrateur de la plateforme Data
Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Responsabilités principales : Gestion de la base de données : Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery. Evolution de la plateforme data : Veiller au maintien en condition opérationnelle de la plateforme. Dette technique : Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances : Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi. Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données. Sauvegarde et récupération des données : Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery. Documentation : Maintenir une documentation complète de la structure de la base de données, des processus ETL, et des politiques de sécurité, en utilisant des outils de documentation appropriés pour chaque technologie.
Offre d'emploi
DevOPS
Tu corresponds au/à la DevOps que nous recherchons si tu possèdes une solide expérience (3-5 ans) sur les sujets suivants : - Projets DevOps : architecture, déploiement d’applications, monitoring d’infrastructure. - Connaissances approfondies du DevOps (IaC, monitoring, CI/CD, ) - Expérience significative sur au moins un des Cloud Providers principaux (AWS, Azure, GCP) et les services DevOps associés. Tu as le profil d’un(e) futur(e) Komeeter si : - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum/Agile - Tu sais être force de proposition et as un esprit de synthèse. - Tu sais avoir à la fois une vision technique mais aussi métier Ton quotidien chez Komeet sera rythmé par : - L’animation des ateliers afin d’étudier et cadrer les besoins clients - La construction, le déploiement et le bon fonctionnement des infrastructures ainsi que des applications datas dans des environnements Cloud. - Le développement, via l’infrastructure as code, des fondamentaux réseaux et systèmes ainsi que des services Cloud Public - L’automatisation du provisioning des environnements via des outils de déploiement continu - La rédaction et l’évaluation des procédures d’exploitation - La participation à l’effort de veille technologique.
Offre d'emploi
Développeur Talend
Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur bancaire. Poste et missions Vous intégrerez notre squad Data/IA et travaillerez en étroite collaboration avec les équipes BI en accomplissant les activités suivantes : • Conception de solution : pattern d’architecture à instancier sur la plateforme, identification des données sources requises, capacités Socle requises, chiffrage et risques associés • Développement ou suivis des développements des usages • Tests, recette et mise en production des usages snowflake • Enrichissement du processus de gouvernance des données associées à l’usage • Veille et prospective sur les usages, outils data en accord avec la cible décisionnelle définie sur snowflake Méthodologie de travail : Agile Télétravail : 2 jours par semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.
Mission freelance
CONSULTANT PLATEFORME DATA
Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Gestion de la base de données Evolution de la plateforme data Dette technique Optimisation des performances Sécurité des données Intégration des données Sauvegarde et récupération des données Documentation · Compréhension des principes de la sécurité des données, y compris les aspects liés à chaque technologie. · Capacité à résoudre des problèmes techniques de manière efficace. · Bonnes compétences en communication pour collaborer avec d'autres équipes et résoudre les problèmes de manière proactive.
Offre d'emploi
Data Analyst H/F
Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python
Mission freelance
Administrateur de la platefofrme Data (H/F)
Dans le cadre d'un renfort, mon client recherche son futur Administrateur de la plateforme Data (H.F). Le rythme de travail est de 2 jours de télétravail par semaine. Votre principale mission : Gestion de la base de données Concevoir, créer, maintenir et gérer les bases de données y compris celles utilisant des systèmes tels que snowflake et BigQuery Evolution de la plateforme Data Veiller au maintien en condition opérationnelle de la plateforme. Dette technique Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données.
Offre d'emploi
Consultant Data Expérimenté H/F
Contexte: Notre plateforme Data & Analytics repose sur des design paterns où les ingestions de données sont paramétrées et ingérées en mode « delta-lake »(Tables de streaming). Toutes les transformations et règles de gestions sont réalisées au sein de nombreuses procédures stockées (SQL et javascript), voire Python avec Snowpark (pour les transformations plus techniques et avancées). Ces transformations sont ordonnancées par le service Azure Automation et supervisées via le service managé logAnalytics. Les déploiements sont gérés par des chaînes complètes CI/CD d’Azur. Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO Cyber, Annuaire, Coud Business Office, sécu, ...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Développement solutions applicatives • Développement solutions infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité du Groupe • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) FinOps: • Cost management opérationnel et forecast • Optimisation des usages infra/services et plateforme
Mission freelance
Data Engineer F/H
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Snowflake pour intervenir chez un de nos clients. Le candidat idéal sera responsable des nouveaux développements de pipelines de données, tout en suivant les normes, les meilleures pratiques et les principes CI/CD. Responsabilités Principales : Création et modification d'objets de base de données Snowflake, y compris les bases de données, les tables et les vues. Développement de procédures stockées Snowflake en utilisant SQL et Javascript. Gestion de l'environnement de développement jusqu'à l'implémentation en production en suivant le processus CI/CD. Assurer un niveau de service élevé, couvrant la conception, la construction, l'exécution et la gestion des incidents. Garantir la qualité des codes fournis par l'équipe de développement.
Mission freelance
Consultant Senior Expert Cloud GCP
Notre cabinet de recrutement Hoxton Partners recherche pour l’un de ses clients un consultant (H/F/Y) Senior Expert Cloud GCP (Google Cloud Platform). Nous recherchons un consultant (H/F/Y) capable de monter un environnement GCP et une plateforme Bigquerry. Ayant de très bonne connaissance en développement et en sécurité cloud GCP. Cadre: Renforcement d' équipe - Date de début : ASAP - Durée de la mission: 12 MOIS Renouvelable - Lieux: La défense - Secteur: Retail - Expérience: 5 à 10ans - Télétravail: 3 jours sur site et 2 jours en remote - Langue :Français et anglais
Mission freelance
Senior Data Engineer Azure
Contexte de la mission We are looking for a Snowflake data engineer Senior to join our team. The hire will be responsible for new developments data pipelines according to norms, best practices and with all CI/CD principles. He must be self-directed and comfortable supporting the data needs of multiple teams, systems and products for different business teams across the world. We need somebody technically operational day 1, who can support and help growing junior profile. Objectifs et livrables Snowflake database objects creation/modification (database, tables, views, etc) Snowflake Stored procedures development (SQL & Javascript) From development environment to production environment implementation using CI/CD process Ensure a high level of service including scoping, build, run, incidents management Ensure quality of codes provide by development team
Offre d'emploi
Consultant Data Quality
En tant que Data Quality, vos responsabilités seront les suivantes : Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) Analyser les root causes des incidents grâce à l’exploration des données des différentes bases Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données
Mission freelance
Expert Tableau Cloud
Cherry Pick est à la recherche d’un Expert Tableau Cloud pour un client dans le secteur du retail Missions : Développer les nouveaux Dashboard groupe (tous alimentés de la nouvelle data plateforme) de former un profil interne à l'utilisation de Tableau Création de Use cases Vérification de la pertinence et de la qualité de données Formation sur Tableau Profil recherché : Expertise Tableau Maîtrise parfaite de l'outil. Snowflake en backend Force de recommandation 3 Jours de Présentiel /2 Jours de TT en région parisienne
Mission freelance
Product Owner Data
Cherry Pick est à la recherche d'un "Data Product Owner" pour un client dans le secteur du Prêt à Porter à Paris. Description de la mission: Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance.
Offre d'emploi
Date engineer
Nous recherchons pour notre client un développeur spécialisé dans les données ayant une expérience préalable dans le développement de produits de restitution automatisée de données. Ce rôle s'inscrit dans le cadre du développement d'une solution technique conçue en collaboration avec le Tech Lead, qui supervise l'architecture logicielle déployée sur le cloud AWS. L'équipe se compose actuellement d'un Product Owner (PO), d'un Tech Lead (TL), d'un développeur fullstack Java et d'un spécialiste en operations (OPS).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes