Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse à Paris

Votre recherche renvoie 19 résultats.
Freelance
CDI

Offre d'emploi
Consultant pour l'intégration d'une nouvelle entité dans le Data Warehouse

R&S TELECOM
Publiée le
Microsoft Access
Qlik
Qlik Sense

12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission Dans le cadre de la trajectoire de rationalisation et de mutualisation du dispositif décisionnel, le groupe s’appuie sur le Data Warehouse Groupe comme socle central de consolidation, de fiabilisation et de mise à disposition des données décisionnelles, ainsi que sur des restitutions communautaires partagées. L’intégration d'une nouvelle entité dans le Data Warehouse Groupe et dans les usages décisionnels groupe constitue une étape structurante de cette trajectoire. Cette intégration vise à sécuriser : La qualité des données migrées (cohérence, complétude, exactitude), La justesse des paramétrages tarifaires Auto et MRH, L’exploitation décisionnelle communautaire via des restitutions Qlik partagées. Dans ce contexte, le Groupe recherche un(e) Consultant(e) pour accompagner l’entité en question dans son intégration au sein de ce système d’information décisionnel groupe. Objectifs et livrables Principaux volets de la mission Volet 1 - Analyse et qualité des données Le consultant interviendra sur : L’analyse de la qualité des données déjà chargées (contrôles de cohérence, complétude, détection de valeurs aberrantes) La comparaison des agrégats clés (primes, sinistres, contrats, résiliations) avec les sources de référence L’identification des écarts et anomalies La contribution à la définition et au suivi d’un plan de remédiation Volet 2 - Traitements et requêtes SAS Les travaux incluent : L’analyse et la mise à jour des programmes SAS existants L’adaptation des traitements pour intégrer des spécificités métier spécifiques La sécurisation des chaînes de traitement (intégration de contrôles, traçabilité, reproductibilité) Le support aux simulations tarifaires réalisées dans des outils externes (SAS ou équivalent) Volet 3 - Restitutions et développements Qlik Le consultant contribuera à : L’adaptation des tableaux de bord existants Le développement de nouvelles restitutions Qlik dédiées, si nécessaire La fiabilisation des référentiels utilisés dans les processus décisionnels Organisation et gouvernance Le consultant interviendra en étroite collaboration avec : Les équipes de pilotage du projet Les équipes IT et décisionnelles du système d’information central Les équipes métiers et data dédiées au périmètre concerné Il s’intégrera aux instances de gouvernance en place : Comités de pilotage projet Groupes de travail thématiques (qualité des données, tarification, suivi d’activité) Transmission d’un reporting régulier sur l’avancement et les risques identifiés
CDI

Offre d'emploi
Consultant BI / Data Warehouse – Oracle

INOV
Publiée le
BI
Data Warehouse
Oracle Database

Paris, France
Dans le cadre du renforcement d’une équipe décisionnelle, notre client recherche un consultant BI / Data Warehouse expérimenté pour intervenir sur un Data Warehouse à forte criticité, dans un contexte financier et environnement anglophone. La mission porte principalement sur les développements et l’optimisation des traitements DWH, avec une composante Oracle (SQL / PL-SQL). Missions principales: Participation aux daily meetings et aux rituels d’équipe Développement, maintenance et optimisation des jobs du Data Warehouse Contribution à la conception et à l’évolution du modèle de données BI Développement et optimisation des requêtes SQL Oracle et procédures PL/SQL Participation aux travaux liés à la chaîne BI
Freelance

Mission freelance
Senior Data Engineer – Plateforme Data Centrale (H/F)

Bifora
Publiée le
AI
Amazon Redshift
Apache Airflow

12 mois
400-550 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data centrale Dalkia , notre client recherche plusieurs consultants Senior Data Engineer pour intervenir sur des projets stratégiques à fort impact business. Vous intégrerez une équipe data centrale au cœur des enjeux de transformation, de modernisation et d’industrialisation des usages data & IA à l’échelle du groupe. Objectifs de la mission Concevoir, développer et maintenir des pipelines data robustes, scalables et industrialisés Participer à l’évolution de la plateforme data centrale (cloud & data warehouse) Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, métiers et IT Contribuer à la mise en place de cas d’usage avancés data & IA
Freelance

Mission freelance
Consultant Décisionnel /BI

Mon Consultant Indépendant
Publiée le
Microsoft Power BI
Oracle BI Publisher
SAP

12 mois
450-490 €
Paris, France
Consultant Décisionnel & BI Compétences clés : • BI/Reporting : Maîtrise des outils décisionnels (Power BI, Tableau, SAP Analytics Cloud, Oracle BI). • Modélisation : Expérience en conception de modèles de données (data warehousing, cubes OLAP). • ETL : Connaissance des outils ETL (Informatica, Talend, SSIS, SAP BODS) pour l’alimentation des rapports. • SQL : Compétences avancées en SQL (requêtes complexes, optimisation). • Pilotage : Expérience dans le pilotage de projets BI (expression de besoins, recette, déploiement).
Freelance
CDI

Offre d'emploi
Data Analyst

VISIAN
Publiée le
Data analysis
Dataiku

1 an
40k-45k €
400-560 €
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de contribution aux évolutions de la solution permettant la production du reporting VDS (Valuation Data Set). À la suite de la réception de nouvelles instructions reçues du SRB (Single Resolution Board) sur le reporting réglementaire VDS (Valuation Data Set), une organisation financière doit revoir le dispositif technique existant permettant de produire le reporting VDS pour refondre cette solution ou l'enrichir selon les analyses qui seront menées. La solution actuelle et la solution cible s'appuient sur les briques techniques Dataiku et Teradata au sein du SRS, datawarehouse du groupe. Dans cette perspective, nous cherchons un profil Data Analyst aguerri pour implémenter cette solution. D'autres sujets, sur des projets / solutions en voie de stabilisation, pourront aussi être lui confiés. La mission a lieu au sein de la squad Reporting Solutions, sur de la Data Préparation (certification Dataiku Advanced Designer + pratique sur une mission précédente obligatoires)
Freelance

Mission freelance
Consultant BI – Azure Data Factory & Power BI

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
400-500 €
Paris, France
Dans le cadre de la modernisation de sa plateforme décisionnelle, notre client recherche un Consultant BI pour concevoir, déployer et maintenir des solutions de reporting et de data integration basées sur Azure Data Factory et Power BI . Mission : Le consultant interviendra sur toute la chaîne BI : ingestion, transformation, modélisation et restitution. Il participera à la structuration du datawarehouse, à l’industrialisation des flux via Azure Data Factory et à la création de tableaux de bord Power BI pour les directions métiers. Responsabilités principales : Développement et maintenance des pipelines Azure Data Factory Modélisation des données (datawarehouse, datamarts) Création et optimisation de rapports Power BI Mise en place des bonnes pratiques de performance, sécurité et gouvernance Support et évolutions des solutions BI en production Interaction avec les équipes métiers et IT Profil recherché : Consultant BI confirmé Expérience sur Azure Data Factory et Power BI Maîtrise des environnements de production Capacité à comprendre les besoins métiers et à les traduire en indicateurs Environnement : Azure, Azure Data Factory, Power BI, SQL, Datawarehouse, Reporting, Cloud
CDI
Freelance

Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)

Linkup Partner
Publiée le
DBT

1 an
45k-55k €
470-560 €
Paris, France
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA INFORMATICA

UCASE CONSULTING
Publiée le
Informatica

3 ans
40k-50k €
400-500 €
Paris, France
Contexte de la mission Dans le cadre de la transformation du périmètre flux avec un changement de méthodologie et de socle technologique, le pôle architecture et données recherche un(e) chef(fe) de projet data pour le siège social, basé à Paris. Rattaché(e) au Responsable du pôle architecture et data, vous aurez pour mission principale de délivrer ou faire évoluer des solutions permettant de répondre aux besoins d’échange de données, que ce soit avec des ressources internes ou au travers d’un centre de service externe. Détails des missions Recueillir et formaliser les besoins auprès des responsables applicatifs. Planifier les étapes du projet, suivre les délais et assurer la cohérence des livrables. Assurer la coordination entre les parties prenantes. Maintenir la cohérence des flux en lien avec le plan d’occupation des sols. Produire ou mettre à jour les spécifications techniques nécessaires pour les développements. Recetter les livrables. Connaissances requises Plusieurs expériences dans le pilotage de projets data. Capacité à gérer plusieurs sujets en parallèle et passer rapidement de l’un à l’autre. Compréhension et appropriation des enjeux métiers, techniques et fonctionnels auprès des équipes concernées. Adapter le discours selon les interlocuteurs et expliquer l'état d'avancement du projet avec des arguments adaptés. Capacité à comprendre l'architecture des systèmes d'information et appréhender les impacts / adhérences des projets. Connaissances dans les services IDMC. Bonne connaissance du langage SQL. Savoir concevoir des API (REST). Modéliser les cinématiques des échanges de données. Environnement technique Microsoft Fabric (Power BI / Lakehouse / Datawarehouse) IBM Cognos Microsoft Azure APIM Microsoft Azure DevOps (Boards / Repos) Informatica IDMC (MDM / CAI / API Center / CDI / CDQ) Informatica PowerCenter Savoir-être Autonomie, rigueur et méthode Capacité d’analyse et de synthèse Polyvalence et organisation Bonne capacité de communication Profil recherché BAC +5 Expérience de 5 ans minimum Télétravail 2 jours par semaine
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
Data Engineer GCP / Big Data (H/F)

ALLEGIS GROUP
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming

3 mois
Paris, France
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
DATA ANALYST DBT / FABRIC

PARTECK INGENIERIE
Publiée le
Apache Airflow
DBT
Microsoft Fabric

12 mois
400-600 €
Paris, France
Maison internationale du secteur du luxe , notre client renforce son pôle Data afin de soutenir ses enjeux stratégiques et décisionnels. La donnée est au cœur des prises de décision : fiable, lisible, élégante et orientée business . 🧠 Vos missions En tant que Data Analyst Senior , vous intervenez sur l’ensemble du cycle de valorisation de la donnée : Data & Modélisation Concevoir et maintenir des modèles analytiques robustes via dbt Exploiter l’écosystème Microsoft Fabric (Lakehouse, Data Warehouse, pipelines) Orchestrer et superviser les flux de données avec Airflow Garantir la qualité, la cohérence et la traçabilité des données Reporting & Dashboards Concevoir et maintenir des dashboards décisionnels à forte valeur ajoutée Traduire des besoins métiers complexes en KPIs clairs, cohérents et partagés Garantir une single source of truth entre les modèles data et le reporting Veiller à la lisibilité, performance et élégance des tableaux de bord Adapter les niveaux de lecture (opérationnel, management, exécutif) Documenter les indicateurs et règles de calcul Business & Communication Collaborer étroitement avec les équipes métiers, IT et Data Challenger les besoins métiers et formuler des recommandations Présenter les analyses de manière claire et impactante Accompagner l’adoption des dashboards et usages data 👤 Profil recherché Nous recherchons un(e) expert(e) data , à l’aise aussi bien sur la technique que sur la restitution business. Expérience & compétences Minimum 7 ans d’expérience en Data Analysis / Analytics Engineering Excellente maîtrise de SQL Solide expérience sur dbt Bonne connaissance de Microsoft Fabric (ou environnement Azure Data équivalent) Expérience avec Airflow Pratique avancée du reporting et de la conception de dashboards (Power BI ou équivalent) Forte culture data : qualité, gouvernance, performance, cohérence des indicateurs Soft skills Très bon communicant , à l’écrit comme à l’oral Capacité à dialoguer avec des interlocuteurs métiers exigeants Esprit analytique, rigueur, autonomie Sens du détail et de l’excellence Langues Anglais fluent impératif (environnement international)
19 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous