Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris

Votre recherche renvoie 16 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Analytics Engineer

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Freelance

Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud

Signe +
Publiée le
Snowflake

12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Freelance

Mission freelance
Data Manager

Tenth Revolution Group
Publiée le
DBT
Snowflake

1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance

Mission freelance
Data Engineer expert sur Snowflake et DBT

Nicholson SAS
Publiée le
DBT
Snowflake
SQL

6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Freelance

Mission freelance
Ingénieur Cloud

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-650 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Freelance

Mission freelance
Data Manager expert modélisation de données (H/F)

Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake

12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Freelance

Mission freelance
Data Engineer Snowflake (H/F)

Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake

12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Freelance

Mission freelance
Proxy PO RUN - Snowflake + Power BI

FF
Publiée le
Microsoft Power BI
Snowflake

1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Data Analytics Enigneer

Phaidon London- Glocomms
Publiée le
AWS Cloud
Data visualisation
Python

6 mois
400-550 €
Paris, France
Concevoir, développer et optimiser des modèles de données pour l’analyse et le reporting Mettre en place et maintenir des pipelines de données robustes et performants Collaborer avec les équipes data et métiers pour comprendre les besoins et les traduire en solutions analytiques Garantir la qualité, la cohérence et la documentation des données Contribuer aux projets de visualisation de données, notamment via Tableau Participer à l’évolution des bonnes pratiques et des standards internes en analytics engineering
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
16 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous