Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 51 résultats.
CDI
Freelance

Offre d'emploi
Data Analyst (H/F)

WINSIDE Technology
Publiée le
Apache Airflow
BigQuery
DBT

1 an
Lille, Hauts-de-France
Nous recherchons un.e Data Analyst passionné.e par la donnée, à l’aise avec les environnements cloud modernes et capable de transformer la data en leviers d’action pour nos équipes métiers. 🎯 Votre mission Au sein de l’équipe Data, vous jouerez un rôle clé dans la construction et l’exploitation de notre plateforme analytique. Votre objectif : transformer des données omnicanales en insights actionnables pour nos équipes internes (marketing, ventes, opérations…). Vos responsabilités : Concevoir et maintenir des dashboards et rapports fiables sous Looker / Looker Studio (et ponctuellement Power BI). Réaliser des analyses avancées pour éclairer les décisions business. Construire, optimiser et documenter des modèles de données dans BigQuery . Écrire du SQL robuste, performant et propre (priorité n°1). Contribuer aux transformations data via dbt et collaborer sur les pipelines (notions d’Airflow). Automatiser des analyses avec Python (pandas, numpy). Travailler en méthodologie Agile avec un Data Product mindset : comprendre les enjeux métiers, proposer des améliorations, challenger les besoins. 🧰 Stack & compétences recherchées 🚀 SQL avancé : très forte maîtrise, optimisation de requêtes 🏗️ Google Cloud Platform – BigQuery 📊 Looker / Looker Studio (et idéalement Power BI) 🧪 Python (pandas, numpy) pour analyses et automatisation 🔄 dbt (modélisation data), notions d’ Airflow Méthodologie Agile 👤 Profil recherché Vous aimez autant plonger dans les données que comprendre les enjeux business . Vous savez traduire un besoin métier en solution analytique claire. Vous êtes rigoureux(se), curieux(se), orienté(e) impact. Vous appréciez travailler en équipe, partager vos connaissances, et améliorer en continu nos produits data.
Freelance

Mission freelance
Data Engineer – Snowflake / GCP (urgent)

CHOURAK CONSULTING
Publiée le
Apache Airflow
DBT
Python

3 mois
350-450 €
Roubaix, Hauts-de-France
Nous recherchons un Data Engineer expérimenté pour intervenir sur la conception, le développement et la maintenance d’ infrastructures et pipelines de données au sein d’un environnement data moderne et exigeant. 🎯 Contexte de la mission : Vous serez responsable de garantir des données fiables, sécurisées et optimisées pour des usages analytiques et opérationnels. Les activités d’ ingestion, transformation, stockage et mise à disposition des données seront au cœur de votre rôle. ⚙️ Vos missions principales : Concevoir et développer des pipelines de données performants et scalables . Assurer la qualité, la cohérence et la sécurité des données. Optimiser les bases de données et les flux de traitement. Collaborer étroitement avec les Data Scientists, Data Analysts et équipes métiers . Mettre en place des outils de monitoring, gouvernance et observabilité . Garantir la conformité RGPD des traitements de données.
Freelance

Mission freelance
Data Engineer Azure Synapse / Databricks / dbt

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
CDI

Offre d'emploi
Data Engineer - CDI

VingtCinq
Publiée le
Azure
Databricks
DBT

Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Freelance

Mission freelance
DataOps Engineer

AGH CONSULTING
Publiée le
CI/CD
DBT
ETL (Extract-transform-load)

6 mois
300-420 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Ingénieur DataOps afin d'apporter une expertise technique sur la mise en place et l'évolution de la stack data. A cet titre, vos principales missions seront les suivantes : - Faire évoluer les process, outils, codes et plateformes permettant de répondre aux mieux aux besoins - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CI/CD
Freelance
CDI

Offre d'emploi
Tech Lead Data

KP2i
Publiée le
CI/CD
DBT
Python

12 mois
40k-60k €
400-600 €
Île-de-France, France
Tech Lead Data & Analytics (Snowflake, dbt, Tableau) – Télétravail possible 📍 Temps plein | F/H/X Nous recherchons un(e) Tech Lead Data pour rejoindre une Feature Team et piloter le développement de produits Data Analytics & IA de haute qualité. Missions principales : Encadrer et coacher une équipe de Data Engineers Définir les choix techniques et modélisations des produits Data Industrialiser et optimiser les flux et produits Data Relever des défis techniques, challenger le "status quo" et proposer des améliorations Compétences techniques requises : SQL, Python, Jinja Snowflake (ou autre Modern Data Platform, ex: GCP BigQuery) dbt, Tableau ou autres outils Analytics Culture Agile & DevOps (CI/CD) Profil recherché : 7+ ans d’expérience en Data, dont 3 ans comme Senior Data Engineer Leadership, autonomie et orientation résultats 💬 Candidature / Contact : Merci de postuler via le site ou de nous envoyer un message directement pour échanger sur le poste.
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Tenth Revolution Group
Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Freelance

Mission freelance
Lead data en Ile de France

EterniTech
Publiée le
Apache Airflow
AWS Cloud
DBT

6 mois
Île-de-France, France
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Gentis Recruitment SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Freelance

Mission freelance
DATA ARCHITECT (GCP)

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
580-720 €
Île-de-France, France
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Freelance

Mission freelance
Data Product Manager/PO (Rennes)

Atlas Connect
Publiée le
BigQuery
Data Lake
Data science

12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Freelance

Mission freelance
Data Analyst/ Business Analyst - Data modelling, ETL (h/f)

emagine Consulting SARL
Publiée le

6 mois
500-550 €
75001, Paris, Île-de-France
Vous êtes un analyste commercial/analyste de données expérimenté et possédez de solides compétences en modélisation de données et en ETL ? emagine vous offre l'opportunité de participer au développement d'une solution interne stratégique qui fournit aux équipes commerciales des informations basées sur les données et des outils intelligents. Are you an experienced Business Analyst/Data Analyst with strong data modelling and ETL expertise? emagine has an opportunity for you to support the development of a strategic internal solution that empowers commercial teams with data‑driven insights and intelligent tools. Skills & Experience 5+ years’ experience as a Data Analyst and/or Business Analyst. Strong experience with data modelling (Medallion, Canonical, Shared). Proven experience with ETL/ELT and data processing tools (Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate). Experience learning and navigating new business data models. Known as the “go‑to” person within teams—strong communicator, proactive, solution‑oriented. Experience with historization and data lineage (advantage). Knowledge of Salesforce data models (advantage). Key Tasks & Deliverables Contribute to the design and development of a new strategic data‑driven internal solution for commercial growth. Analyse business requirements and translate them into actionable data specifications and models. Work with Medallion Architecture, Canonical Data Models and Shared Data Models to shape scalable data structures. Support ETL/ELT development using Fabric Pipelines, dbt, Alteryx, LogicApps, PowerAutomate or Airflow. Assist with data processing workflows and ensure robust, high-quality data flows across the environment. Learn and adopt new business data models quickly, acting as a knowledgeable point‑of‑contact for the wider team. Contribute to historization and data lineage practices to ensure traceability and governance. Collaborate closely with technical and commercial stakeholders to align solution capabilities with business needs. Why Join? You’ll be part of a highly collaborative, supportive team working on an impactful internal solution. Although fully remote, you’ll work closely with global colleagues who value autonomy, ownership, and clear communication. Most consultants work remotely from locations across Europe. Apply with your latest CV now or reach out to Brendan to find out more.
Freelance

Mission freelance
Business Analyst – Données cliniques et opérationnelles - remote

WorldWide People
Publiée le
Business Analysis

6 mois
Lyon, Auvergne-Rhône-Alpes
Business Analyst – Données cliniques et opérationnelles Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires . Un Business Analyst pour soutenir des initiatives impliquant des données cliniques et opérationnelles (MDM, SSU, CTMS, Site Connect, CRM, supply chain, finance, ERP). Le consultant agira comme interface entre les parties prenantes métier, les équipes cliniques et les équipes data/ingénierie , afin de traduire les besoins métier en exigences data exploitables. Responsabilités principales Recueillir, analyser et documenter les besoins métier liés aux cas d’usage de données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires à destination des équipes data engineering et analytics. Contribuer aux activités de qualité des données, traçabilité (data lineage) et gouvernance (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques et opérationnelles et garantir l’alignement entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints via Jira ; documenter les processus dans Confluence . Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires .
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
51 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous