本文档记录
poyee-data-warehouse数据仓库的分层架构、建模方法论与总线矩阵。 与命名规范(数仓命名规范.md)配套阅读。
二维视图(横向分层 × 公共维度侧柱):
┌────────────┐
┌───────────────────────────────────────────┐ │ │
│ ADS 应用层:业务指标、面向服务端宽表 │ │ │
├───────────────────────────────────────────┤ │ │
│ TDM 标签层:长表明细 + 宽表 + 人群包 │◄──┤ DIM │
├───────────────────────────────────────────┤ │ │
│ DWS 汇总层:主题聚合、提供公共指标 │◄──┤ 公共维度 │
├───────────────────────────────────────────┤ │ │
│ DWD 明细层:清洗加工 + 维度退化 │◄──┤ │
├───────────────────────────────────────────┤ │ │
│ ODS 贴源层:类型转换、脏数据识别 │ │ │
├───────────────────────────────────────────┤ └────────────┘
│ RAW 采集层:全字段 STRING,原样落盘 │
└───────────────────────────────────────────┘
竖向分域(贯穿 DWD 及以上):交易 trd / 用户 usr / 商品 prd / 店铺 shp / 公共 pub
分层定义表:
| 层 | 代码 | 定位 | 典型操作 |
|---|---|---|---|
| 原始采集层 | raw |
从源系统/外部文件落地的原始数据,全字段 STRING,同步任务不做任何类型转换 | DataX 直接同步、CSV 解析、字段原样落盘 |
| 贴源层 | ods |
类型转换、空值处理、脏数据识别的唯一入口,输出类型化的干净表 | 从 raw STRING 字段做 CAST/TRY_CAST、空值兜底、去重 |
| 维度层 | dim |
公共维度(时间、地区、渠道等),贯穿 DWD/DWS/TDM/ADS | 维度退化、缓慢变化维 |
| 明细层 | dwd |
标准化、维度补全、异常处理;星型模型 | 宽表化、维度退化、数据质量校验 |
| 汇总层 | dws |
建立汇总宽表,提供公共指标 | 多维聚合、主题整合 |
| 主题域模型层 | tdm |
标签明细长表(EAV)+ 核心标签宽表(pivot)+ 人群包(远期 bitmap);按实体类型分表(usr/prd/shp),Hive 离线计算,远期可加 HBase(在线标签服务)/ ClickHouse(人群包交叉计算) | 标签计算、pivot 宽表、bitmap 圈选 |
| 应用层 | ads |
提供数据展示、数据指标 | 面向消费端的定制聚合 |
数据流:
RDS PG / ES ──DataX──▶ RAW ──SparkSQL──▶ ODS ──▶ DWD ──▶ DWS ──▶ TDM ──▶ ADS
│
▼ DataX / Broker Load
服务层(Doris / CK / ES / Mongo)
当前划分为以下主题域,对应命名规范的 domain 代码:
| 域 | 代码 | 说明 |
|---|---|---|
| 交易域 | trd |
订单、支付、退款、购物车 |
| 用户域 | usr |
注册、登录、活跃、画像 |
| 商品域 | prd |
商品、SKU、SPU、价格 |
| 店铺域 | shp |
店铺、商家 |
| 公共域 | pub |
平台、日历、地理等 |
总线矩阵用于指导维度建模和指标体系建设,列出各业务过程与公共维度/业务维度的关系。 以下是模板,还未整理成正式可用的矩阵
| 域 | 业务过程 | 说明 | 时间 | 用户 | 地区 | 渠道 | 商品 | 店铺 | 活动 | 支付 |
|---|---|---|---|---|---|---|---|---|---|---|
| 交易域 | order_create | 用户提交订单(未支付) | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |
| order_pay | 用户完成订单支付 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |
| order_cancel | 用户取消订单 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ||
| refund | 用户发起退款/售后 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ||
| cart_add | 用户加入购物车 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |||
| 用户域 | user_register | 用户注册账号 | ✓ | ✓ | ✓ | |||||
| user_login | 用户登录行为 | ✓ | ✓ | ✓ | ||||||
| user_active | 活跃行为(浏览/点击) | ✓ | ✓ | ✓ | ||||||
| 商品域 | product_expose | 商品曝光(列表/推荐位) | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | ||
| product_click | 商品点击进入详情页 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |||
| product_favor | 用户收藏商品 | ✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |||
| 店铺域 | shop_visit | 用户访问店铺 | ✓ | ✓ | ✓ | ✓ | ||||
| shop_follow | 用户关注店铺 | ✓ | ✓ | ✓ | ✓ |
OLTP 业务库采用范式建模;OLAP 数仓特别是 DWD 层采用维度建模(Kimball)。 模型类型:星型模型,维度退化在 DWD 或 DIM 层完成。
| 步骤 | 说明 | 示例(发券业务) |
|---|---|---|
| 1. 确定主题域 | 选取所属业务域 | 交易域 / 营销域 |
| 2. 选择业务过程 | 从业务流程中提取可度量的动作 | 券发放 / 曝光 / 点击 / 领取 / 核销 |
| 3. 声明粒度 | 明确事实表每行表示什么;优先原子粒度 | "每个用户每次领券记录";主键 = 领取 id + 幂等 id |
| 4. 确认维度 | 从哪些角度切分数据 | 权益类型、发放渠道、门槛、折扣、时间、用户 |
| 5. 确认事实 | 表示度量的数值字段 | 领取金额、核销金额、引导 GMV |
dim_pub_* 系列)。【业务过程】 券的核销
【粒度】 子订单 × 券 id (SKU 级)
【维度】 权益类型 / 领取场景 / 发放渠道 / 时间 / 用户 / 店铺
【事实】 核销金额 / 引导 GMV
左侧是抽象的规划层级,右侧是一个零售业务的具体示例:
| 规划层级 | 示例(xxx 零售) | 物理落地 |
|---|---|---|
| 业务板块 | xxx 零售 | — |
| 数据域 | 交易域 | Schema 划分 |
| 业务过程 | 支付 | DWD 事实表切片 |
| 度量 | 下单金额 | 事实字段 |
| 维度建模 | 时间 / 区域 / 商品 | 维度表:订单表、商品表 |
| 原子指标 | 下单金额 | order_amt_cny |
| 派生指标 | 近 1 天 上海区域 支付下单金额 | ADS 汇总表字段 |
| 汇总表 | ads_trd_order_area_agg_inc_d |
按区域聚合的下单金额日汇总 |
关键映射:业务过程 → DWD 事实表;度量 → 事实字段;维度 → DIM 表;派生指标 = 原子指标 + 时间周期 + 修饰词 → DWS/ADS 字段。
核心规则:粒度相同则合,粒度不同则拆。
判断"粒度是否相同"的一个问题:两个业务动作描述的是不是同一个实体的同一条记录?
典型场景:
| 场景 | 粒度关系 | 结论 | 理由 |
|---|---|---|---|
| 拼团发起 vs 拼团成功 | 同一个团的状态变化 | 合 | 粒度都是团 ID,用 status + 多个时间列区分 |
| 下单 vs 支付 vs 发货 vs 签收 | 同一个订单的生命周期 | 合 | 粒度都是订单 ID,每个阶段一列时间戳(对应 21-命名规范.md §2.2 acc 快照) |
| 拼团 vs 订单 | 一对多 | 拆 | 团是团、单是单,粒度不同 |
| 订单 vs 订单明细行 | 一对多(一个订单多个商品) | 拆 | 行项目有独立粒度 |
| 浏览 vs 点击 vs 加购 | 各自独立事件流 | 拆 | 每次行为是独立记录(对应 21-命名规范.md §2.2 apd 快照) |
自检方法:
一句话总结:一行能完整描述一个业务实体就合,合了之后一个 ID 会出现多行就拆。
状态时间字段的设计:保留 3-5 个核心状态的时间字段(值为时间戳),其他非核心状态不建新列,使用原始状态码标记当前状态。后期若需要状态流水分析,新建状态流水表(_apd_d)而不是改主表。
ODS 层从业务库/埋点/爬虫数据接入。关键问题:数据是否存在物理删除,决定增量策略。
| 数据来源 | 接入方式 | 快照类型 | 备注 |
|---|---|---|---|
| 业务库 (PG/MySQL) | DataX + CDC | inc(增量) |
如存在物理删除,后续推行软删除 |
| 埋点 (Sensors → Kafka) | Kafka → HDFS/Hive | apd(追加) |
不可变事件流 |
| 爬虫数据 | 爬虫落库 → DataX | ful 或 inc |
按源站特性决定 |
| 维度数据 | 手工上传 / 配置化 | ful(全量) |
如国家映射、汇率表 |
| 一次性历史 / vendor 单批交付 | 本地 CSV → bin/csv-to-hdfs-starter.py |
his(一次性历史) |
永不调度,导入后入档;周期段固定 _o |
快照类型决策:
inc(增量快照)apd(追加)zip(拉链表)ful(全量)his(与 ful 严格区分:ful 是周期性调度的全量重刷,his 是导入后归档的一次性快照)dt(日期,必须);hr(小时,按需)orc.compress=NONE(咱不压缩,放弃一部分磁盘换 CPU/查询速度与 debug 友好度 ,后期做冷热数据时再考虑压缩)拼团表 DWD 快照策略:每日增量快照 + 近 7 天全量快照 + 全量拉链表
这是本数仓的核心数据契约,所有 raw / ods 层作业都必须遵守。
dt 分区)一律 STRING 类型,源库是什么类型、含不含空值、超不超长,raw 全部原样落盘columnType 的类型映射(或统一填 string),CSV 导入时 SparkSQL 读取后也不 CASTCAST / TRY_CAST,输出真正类型化的干净表_err 分区、或写入专门的数据质量日志表,具体策略 TBD)raw 层是否需要 etl_load_time / src_file / src_row_no 等框架字段,暂不做统一要求,后续实际接入第一批表时再根据需要补充到本节。
总则:raw 层一律 STRING 兜底同步;类型化在 ods 层完成。下表为 ods 层 CAST 目标类型的参考表,具体字段可按业务需要微调(如小金额字段可下沉到 DECIMAL(16,2))。
| PG 类型 | Hive 类型 |
|---|---|
int2 / smallint |
BIGINT |
int4 / integer / int |
BIGINT |
int8 / bigint |
BIGINT |
serial |
BIGINT |
bigserial |
BIGINT |
numeric / decimal |
DECIMAL(20,4) |
real / float4 |
DECIMAL(20,4) |
float8 / double precision |
DECIMAL(20,4) |
char / character |
STRING |
varchar / character varying |
STRING |
text |
STRING |
timestamp / timestamp without time zone |
STRING |
timestamptz |
STRING |
date |
STRING |
time / timetz |
STRING |
boolean / bool |
TINYINT |
uuid |
STRING |
interval |
STRING |
tsvector |
STRING |
array |
STRING(保留 JSON/文本形态,dwd 按需解析) |
hstore |
MAP<STRING,STRING> |
说明:
BIGINT:避免上游扩位(int4 → int8)时下游被动改表DECIMAL(20,4):覆盖绝大多数金额/比率场景;特殊精度需求(如高精度科学计算)单独评估TINYINT(0/1):Hive 的 BOOLEAN 与 ORC/Spark 生态兼容性没有 TINYINT 稳定STRING:保留源端字面量,dwd 层再按需 to_timestamp / to_date(待补,首批 ES 埋点库接入时落地)