Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Offre d'emploi
Chef de projet Data
I. Contexte : Sous la responsabilité du Chef du département Data, vous jouerez un rôle opérationnel au service de la performance de la donnée suivant la stratégie et méthodologie Groupe II. Missions : 1. Formalisation et modélisation des besoins métiers · Accompagnement des métiers dans l'expression des besoins liés aux indicateurs de pilotage, connaissance client, connaissance opérationnelle, etc. · Modélisation des besoins en Business Intelligence : indicateurs, règles de calcul, axes d'analyse, niveaux de granularité. 2. Structuration du système d'information data · Définition et mise en œuvre en collaboration avec le Groupe : référentiels, datawarehouse, datamarts, etc. · Cartographier l'ensemble des sources de données internes et externes, en lien avec la DSI et les directions métier. 3. Maîtrise d'ouvrage et spécifications fonctionnelles · Accompagnement à la rédaction des spécifications fonctionnelles en collaboration très étroite avec le métier. · Participation à la conception fonctionnelle des flux d'alimentation, des modèles de données, des restitutions. · Réaliser ou coordonner les recettes fonctionnelles des développements, valider les livrables avec les utilisateurs. 4. Accompagnement BI et production de livrables · Supervision de la conception et le maintien des rapports Power BI répondant aux besoins métier. · Anticipation du suivi de l'intégration · Veiller à la bonne adoption des outils de pilotage, en formant et accompagnant les utilisateurs.

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
Consultant Data
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Data Management, Consultant Data Spécialités technologiques : Cloud, Qualité des données, Transformation digitale Description et livrables de la prestation Contexte de la prestation : Afin d’accompagner son développement, notre client souhaite mettre la donnée au service de sa transformation digitale afin d’encourager l'innovation, d’améliorer l'excellence opérationnelle et de maintenir la satisfaction client au centre des préoccupations et de la proposition de valeur. Avec une forte augmentation de l’exposition et des demandes d’exploitation autonome de la donnée, notre client souhaite désormais proposer à ses utilisateurs, IT comme métier, un dictionnaire de données enrichi, fiable et à jour. MISSIONS L’objectif de la prestation est d’accompagner notre client dans l’enrichissement du Data Catalog et son déploiement au sein des différentes équipes métiers. Une première version du catalogue de données a en effet été déployée sur l’année 2024 pour accompagner la migration des référentiels Clients – Contrats vers Informatica. Cette première version a principalement permis de documenter les interfaces entre le back office, le référentiel et le CRM et est utilisée au sein des équipes Data & SI. Un premier volet de la prestation doit permettre de « challenger » et valider cette première implémentation, puis de l’enrichir avec les nouveaux cas d’usage : • Les traitements de qualité de données réglementaires (Solva II / QRT) migrés vers le socle data en 2024 • L’intégration des données Clients et Contrats dans le référentiel depuis les SI Partenaires • L’intégration des données Collaborateur dans le référentiel depuis le SIRH du client • L’intégration des données « Personnes morales » dans le référentiel depuis un SI Partenaire Un second volet doit permettre d’accompagner notre client dans le déploiement de l’outil à l’ensemble des directions métiers, notamment en validant l’organisation à mettre en place derrière l’usage de la solution. Livrables attendues : Enrichissement dans Data Galaxy des modules Glossaire, Dictionnaire, Traitement et Gouvernance pour le(s) cas d’usage identifié(s) avec les équipes data

Mission freelance
EXPERT SNOWFLAKE ET AWS H/F
prestation englobe : -La formation des équipes sur prise en main de la plateforme dont la création & consommation de data products et plus généralement leur gouvernance sur la plateforme -Le support pour la mise en place des liens entre Collibra et Snowflake ; -Une assistance ponctuelle sur la migration de Semarchy on-prem vers l’app Semarchy proposée dans le catalogue Snowflake (native app) ; -La mise en place de de POV sur la plateforme mise en place oMise en place de sur plusieurs data products pour la mise en place de chatbots / interrogation en langage naturel oUtilisation du potentiel Collibra

Offre d'emploi
Data Cloud Architect
NE PAS POSTULER SI VOTRE PROFIL NE CORRESPOND PAS A L'OFFRE OU SI NE VOUS SOUHAITEZ PAS VOUS ALIGNER AU TJM MENTIONNÉ Contexte de la mission En tant que membre de l’équipe Data Capture , le poste requiert une solide expérience technique et en architecture, ainsi qu’une forte maîtrise des technologies Cloud , du développement de microservices et de l’ architecture orientée événements (Event Driven Architecture) . Ce rôle implique également une collaboration étroite avec les équipes IT du Groupe et des zones, les partenaires métiers, les partenaires externes, ainsi que l’ensemble des membres de l’équipe d’intégration. Les compétences suivantes sont clés et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à produire de la documentation (dans le cadre d’un audit, d’un POC, ou pour formaliser des standards et de l’architecture) Objectifs et livrables Concevoir et proposer des solutions autour de la donnée en utilisant les technologies Azure Cloud dans le cadre de notre framework Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" en respectant les bonnes pratiques d’architecture Concevoir et développer des API / microservices pour enrichir notre framework de solutions Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à l’enrichissement de notre catalogue de services en self-service Participer à la modernisation et à la veille technologique au sein de l’équipe Data Capture et de l’organisation Data & Analytics Être le référent Cloud au sein de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’ équipe Sécurité sur les sujets associés Contribuer à la roadmap Data Capture et à son évolution Challenger et accompagner les prestataires externes Compétences demandées Compétence Niveau Snowflake Expert Event Driven Architecture (EDA) Confirmé Architecture Expert Réseau Confirmé Intégration continue Expert SQL Expert Azure Confirmé Données (Data) Expert Codage Confirmé Anglais Courant

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Offre d'emploi
Data Engineer Talend - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Offre d'emploi
Data Engineer Talend - DAX
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Offre d'emploi
Data Architect H/F
1G-LINK accompagne aujourd’hui de grands comptes dans l’amélioration de l’expérience de ses clients et collaborateurs. Cela passe par la valeur intrinsèque de l’entreprise : la symétrie des attentions. Par cette valeur ajoutée, 1G-LINK se positionne comme le partenaire de la transformation digitale par et pour les utilisateurs. Afin de renforcer nos équipes, nous recherchons des consultants expérimentés sur les nouvelles technologies pour accompagner nos clients au quotidien. Vous participerez à des projets enrichissants et aiderez les DSI à définir une stratégie d’innovation autour de leur système d’information tout en leur apportant vos compétences. Les missions confiées seront : Recueillir les besoins de la DSI métier (composants, services, SLA etc) Conception logique et physique des solutions cloud pour les différentes infrastructures et les plates-formes Documenter et partager les meilleures pratiques et les connaissances techniques acquises au travers des tâches réalisées. Optimiser le design de l’architecture et le dimensionnement des infrastructures en fonction des évolutions des besoins et des technologies. Intervenir en support des opérationnels (CloudOps) pour les points bloquants Garantir la qualité des livrables applicatifs (Automatisation, standardisation, documentation et capitalisation) Proposer des solutions techniques Rédiger des DAT Participer aux rituels de pilotage dans une approche Agile Compétences techniques : Ayant la compréhension des technologies Cloud, des enjeux business, et des tendances du marché du Cloud / Data Connaissances techniques dans certains des domaines suivants : design d’application dans le Cloud Azure, architecture lambda, technologies Big Data Analytics, Machine Learning, virtualisation, BI, architecture de stockage, sécurité, résilience et haute disponibilité Connaissance des problématiques d’intégration et de développement continus (CI/CD) Utilisation de PowerBI pour le traitement de certaines données sur la partie architecture Expertise sur Snowflake

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Offre d'emploi
Ingénieur Data (H/F) - 13
Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique

Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Analyst Power BI (H/F)
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 1 jour par semaine ( non négo ) ✔Démarrage ASAP ou sous 3 mois ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Analyst Power BI (H/F) afin d'intégrer la DSI de notre client. Tes responsabilités principales sont : Participer aux projets de mise en place de Snowflake, Power BI et Azure Améliorer la structuration et la qualité de la donnée Collaborer avec les différentes parties prenantes : intégrateurs, métiers, DSI ...
Offre d'emploi
Ingénieur Développeur Data H/F
À propos de nous : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche un Ingénieur développeur Data. Lieu : Mantes-La-Jolie Contrat : CDI Mission : Dans le cadre de la mise en place et l'organisation du Data Lake de mon client, vous seriez en charge de structurer, fiabiliser et valoriser les données métiers. Vous serez le référent technique de la gouvernance de données. Administration du Data Lake Mise en place des schémas de données Développement des Pipelines de données Mise en place du catalogue de données Définir les indicateurs de qualité Être garant de la traçabilité et documentation des flux de données Gérer le traitement des anomalies Environnement technique : Snowflake Python Oracle SQL Power BI Powershell Compétences : Expérience de 3 ans minimum en Data Warehouses Cloud Idéalement avoir une expérience de création d'une data de bout en bout Très bonne maîtrise des langages SQL et Python, des scripts PowerShell Pour plus d'informations, merci de m'envoyer votre CV.

Offre d'emploi
Consultant BI (H/F)
Vos missions ? En tant que Consultant BI vous serez en charge des missions suivantes: - Recueillir et analyser les besoins métiers en matière de données et de reporting. - Concevoir et modéliser les entrepôts et datamarts pour structurer l'information. - Développer et maintenir les flux ETL/ELT pour l'intégration et la transformation des données. - Mettre en place et optimiser les tableaux de bord et rapports décisionnels. - Assurer la qualité, la fiabilité et la cohérence des données utilisées. - Former et accompagner les utilisateurs sur les outils de Business Intelligence. - Garantir la performance et l'évolutivité des solutions BI déployées. - Réaliser une veille technologique sur les outils et tendances en BI et Data Analytics. La stack Technique : - SQL Server, Oracle, PostgreSQL, MySQL - Snowflake - Azure Data Lake, Databricks - Git, Jira

Offre d'emploi
Data engineer (H/F)
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IR Durée premier exercice comptable
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Quel statut chosir
- Prestataire en développement logiciel: EI en BIC ou BNC ?
- TVA Micro entreprise (1)