Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris

Offre d'emploi
TECH MANAGER DATA
Bonjour pour le compte de notre client, nous recherchons Tech Manager Data.. Sous la responsabilité du Tech Lead DATA, le/la Tech Manager Data aura donc la charge De Encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) Créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) Piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) Animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) Informer et alerter les (deux) Leads DATA Participer aux activités et évènement transverses de l'équipe domaine, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc domaine connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Data Platform ». o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Offre d'emploi
CHEF DE PROJET DATA
Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. Contexte : Assurer le rôle de point de coordination entre les équipes data engineer et data analystes Comprendre et cartographier les flux de données existants Réaliser ponctuellement des développements SQL si nécessaire Assurer le pilotage, suivi et traçabilité des projets data Garantir la bonne application de la méthodologie Agile (Rituels, backlog, priorisation). Compétences attendues Solides capacités d'analyse et de compréhension fonctionnelle Bonne connaissance des environnements data (bases, flux, reporting) Expérience en gestion de projet / PO Compétences techniques en SQL, DBT et Snowflake Connaissance de l'outil Tableau Profil hybride Technico fonctionnel

Mission freelance
Tech Manager PMS Data
Cherry Pick est à la recherche d'un Tech Manager PMS Data pour l'un de ses clients. Missions : - encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) - créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) - piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) - animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) - informer et alerter les (deux) Tribes Leads DATA ‘DHS’ - participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non- exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Mission freelance
Tech Manager Data Confirmé(e) (H/F)
Nous recherchons un Tech Manager Data confirmé (12+ ans d’expérience) en management de transition pour piloter et transformer des équipes Data dans un contexte international. Vous serez responsable de l’encadrement d’équipes techniques (onshore & offshore), de la mise en place de pratiques innovantes (DevOps, FinOps, Run) et de la contribution à la définition d’une architecture data de nouvelle génération. Votre mission consistera à améliorer la qualité et la fiabilité des données issues des PMS (Opera Cloud, autres), essentielles à la performance opérationnelle et financière d’un grand groupe hôtelier international.

Mission freelance
Expert Snowflake / DBT – Data Platform Architect
Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Mission freelance
Tech Lead Snowflake / DBT
Nous recherchons un Tech Lead Snowflake / DBT pour piloter les aspects techniques de la plateforme data en collaboration avec l’équipe Data Factory de notre client. Niveau d'anglais requis : courant Bonne compréhension des enjeux métier liés à la data Capacité à arbitrer et aligner les choix techniques avec les besoins fonctionnels Collaboration transverse avec les équipes CDP et Data Factory ... .... ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... ..

Mission freelance
ALSL - Tech Manager Data
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.

Offre d'emploi
Architecte SI / Data & IA
Contexte : Dans le cadre de la transformation d'un groupe en assurance, et notamment dans l'entité technique, plusieurs projets majeurs sont en cours : Nouveau Référentiel Client pour se doter d’une seul point de vérité sur les clients individu et entreprise, sur tout leur cycle de vie (de prospect à ancien client) Programme CRM, Plateforme Data /IA, Refonte / Evolution de nos espaces digitaux, etc. La direction de l’architecture au sein de la direction technique est constituée de 3 départements : Stratégie SI et gouvernance d'architecture Architecture SI Architecture Technique Nature de la prestation : Un apport en architecture de solution et en architecture fonctionnel est demandé : définition de solution fonctionnelle et applicative, avec comme livrable la rédaction de dossiers d’architectures ainsi que de slidewares pour communiquer sur le travail produit. Un rôle de conseil est aussi attendu par ailleurs sur des sujets ponctuels ou questions que l'on se pose. Concrètement : Contribuer à la définition de l'architecture applicative de la solution, en cible et en trajectoire Rédiger les documents d’architecture applicative selon la méthode du groupe Contribuer à l'analyse des demandes d’évolutions applicatives émises par les filières / lots du programme au regard des impacts sur la solution globale et sa trajectoire de déploiement Contribuer aux dossiers d’arbitrage permettant de statuer sur la prise en compte des évolutions Contribuer à la préparation des Comités Solution (comité d'arbitrage du périmètre de la solution) Contribuer à la définition des interfaces, des solutions et des règles d’interfaçage du nouveau SI de gestion et de son écosystème, en cible et par état stable Conseiller / valider les choix techniques Contribuer à l'identification, l'instruction et le suivi des adhérences entre les programmes et les projets de transformation du SI (d’un point de vue solution) Accompagner les projets, de la phase de cadrage à la mise en production des applications Contribuer à assurer la cohérence, tout au long de la vie du projet, entre les livrables majeurs des programme et les autres projets connexes en adhérence forte (spécifications, développements, stratégie de recette, stratégie de migration, conduite du changement) Contribuer à la modélisation de la cartographie du nouveau SI gestion sous HOPEX - vision cible et trajectoire Livrables : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution et Dossiers d’arbitrage Dossiers d’analyse des adhérences entre les programmes et les projets de transformation du SI Dossiers d’analyses fonctionnelles et/ou applicatives sur des thèmes transverses critiques Cartographies sous HOPEX de la couche applicative/donnée Comptes rendus hebdomadaire

Offre d'emploi
Data Engineer ServiceNow (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de projets Data ambitieux, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer ServiceNow (H/F) . 👉 Notre client évolue dans le secteur des services et vous intégrerez le pôle Data & Analytics. 👈 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre une connectivité technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management) 🔸 Concevoir et industrialiser des pipelines automatisés d’ingestion (batch ou incrémentale) 🔸 Structurer et modéliser les données dans Snowflake pour répondre à des cas d’usage analytiques 🔸 Implémenter les logiques de rafraîchissement, suivi de qualité et métadonnées 🔸 Documenter les pipelines, schémas de données et points de reprise 🔸 Participer à la mise en place des bonnes pratiques CI/CD, versioning et documentation 🔸 Collaborer avec les équipes IT, qualité, gouvernance et opérations pour couvrir les besoins analytiques 🔸 Contribuer à la veille technologique et à l’amélioration continue des processus

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
Consultant Data
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Data Management, Consultant Data Spécialités technologiques : Cloud, Qualité des données, Transformation digitale Description et livrables de la prestation Contexte de la prestation : Afin d’accompagner son développement, notre client souhaite mettre la donnée au service de sa transformation digitale afin d’encourager l'innovation, d’améliorer l'excellence opérationnelle et de maintenir la satisfaction client au centre des préoccupations et de la proposition de valeur. Avec une forte augmentation de l’exposition et des demandes d’exploitation autonome de la donnée, notre client souhaite désormais proposer à ses utilisateurs, IT comme métier, un dictionnaire de données enrichi, fiable et à jour. MISSIONS L’objectif de la prestation est d’accompagner notre client dans l’enrichissement du Data Catalog et son déploiement au sein des différentes équipes métiers. Une première version du catalogue de données a en effet été déployée sur l’année 2024 pour accompagner la migration des référentiels Clients – Contrats vers Informatica. Cette première version a principalement permis de documenter les interfaces entre le back office, le référentiel et le CRM et est utilisée au sein des équipes Data & SI. Un premier volet de la prestation doit permettre de « challenger » et valider cette première implémentation, puis de l’enrichir avec les nouveaux cas d’usage : • Les traitements de qualité de données réglementaires (Solva II / QRT) migrés vers le socle data en 2024 • L’intégration des données Clients et Contrats dans le référentiel depuis les SI Partenaires • L’intégration des données Collaborateur dans le référentiel depuis le SIRH du client • L’intégration des données « Personnes morales » dans le référentiel depuis un SI Partenaire Un second volet doit permettre d’accompagner notre client dans le déploiement de l’outil à l’ensemble des directions métiers, notamment en validant l’organisation à mettre en place derrière l’usage de la solution. Livrables attendues : Enrichissement dans Data Galaxy des modules Glossaire, Dictionnaire, Traitement et Gouvernance pour le(s) cas d’usage identifié(s) avec les équipes data

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Offre d'emploi
Data Engineer Talend - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Prêt pour tous
- J'ai besoin encore de vos avis...
- Te mu Gutschein Deutschland ALG030194 – 30% Rabatt + 100€ Coupon 2025
- SASU IS informatique et immobilier
- Recherche un Développeur No Code pour un projet en B2C
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !