Kaynağa Gözat

docs(kb/93): 加 ADR-08 DIM ful_d 跑批模式 B + CASE WHEN 整组判断

Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>
tianyu.chu 3 gün önce
ebeveyn
işleme
023a5f407b
2 değiştirilmiş dosya ile 47 ekleme ve 0 silme
  1. 1 0
      kb/92-重构进度.md
  2. 46 0
      kb/93-架构决策.md

+ 1 - 0
kb/92-重构进度.md

@@ -181,6 +181,7 @@
 | 2026-05-09 | **kb/27 + kb/28 sport→category(lv2 品类字段命名拍板)+ workspace 三份工作稿标已部分作废**:(a) 品类字段命名按 kb/21 §1 一词一义原则,业务库 sport 实际多义(16 值里"影视收藏 / 综合收藏 / 综合体育"等非 sport 语义),数仓字段改用中性的 `category`;lv1 大类(业务库 `first_sport`,1 期不引)未来引入命名 `main_category`;改动点 kb/28 §3.2(命名说明 + 清洗规则措辞)+ §3.3 字段表 sport 行 + kb/27 §2.4 维度退化表 + 末段 + §2.6 字段表 sport 行。(b) `workspace/20260508/` 下 `dws_tdm_draft.md` / `dwd_modeling_questions.md` / `industry_practice_review.md` 顶部加"已部分作废 2026-05-09"段,建模结论以 kb/27 + kb/28 为准;workspace 在 .gitignore 不入 commit,本地档案保留作设计推理过程档案。 | — |
 | 2026-05-09 | **kb/27 §2.5 + §2.6 大改:dwd_pay 金额派生通式 + 业界全名命名 + 删 8 个状态/异步字段**:(a) §2.5 改"金额字段 mer_act% 修正规则":通式 `CASE WHEN point_type LIKE 'mer_act%' THEN ROUND(/100.00, 2) ELSE 直取 END` + 11 字段派生映射(accounts_payable→payable_amt_cny GMV / actual_payment+point→pay_amt_cny Net Revenue 特例 / trade_amount / settlement_amount / card_price / act_price / discount / platform_discount / act_discount / member_discount / point_deduct)+ Net Revenue 特例(mer_act% 时换字段用 point/100,非同字段除 100)+ 2 字段直取(shipping_cost / shipping_free_amount)+ 1 字段待业务确认(discount_amount 与 discount 区别)。(b) §2.6 字段表按业界全名 + `_amt_cny` 后缀重命名(pay_amt_cny / payable_amt_cny / settle_amt_cny / discount_amt_cny / platform_discount_amt_cny / member_discount_amt_cny / act_discount_amt_cny / point_deduct_amt_cny / shipping_amt_cny / shipping_free_amt_cny / trade_amt_cny),数量改 cnt 词根(purchase_cnt / give_cnt);按 Kimball / OneData "DWD 事件表只装事件本身的事实快照"原则删 8 字段(status / serve_status / update_time / refuse_status / waring_type / waring_status / goods_allocate / invoice_id),归 dim_trd_order_zip_d 拉链或后续业务事件表;保留 open_self(业务侧待确认归处,本期暂留);settlement_amount 保留并派生为 settle_amt_cny(_apd_d 不被退款改写)。 | — |
 | 2026-05-09 | **kb/27 discount→merchant_discount + discount_amount 加派生 + DWD 调度双前置**:(a) §2.5 派生映射 `discount` 加 merchant_ 前缀(`discount_amt_cny` → `merchant_discount_amt_cny`):业务库字段 `discount` 字面"折扣"未体现"商家方"语义,加全名 merchant_ 前缀突出商家维度(不抄业务侧 SQL 别名 mer_coupon,因公司"折扣 vs 券"是否同义未确认,待业务侧定)。(b) `discount_amount` 从"待问是否派生"拍板按通式派生,临时命名 `discount_amount_amt_cny ❓`,与 merchant_discount 语义区别 + 最终命名仍待业务答复。(c) §1.4 加调度依赖行:DS DEPENDENT 同 dt ODS + 同 dt DIM ful_d 双前置(按 Kimball 维度退化原则,DWD 必依赖 DIM 同分区跑完)。 | — |
+| 2026-05-10 | **kb/93 加 ADR-08 DIM ful_d 跑批:业界主流模式 B + 字段 CASE WHEN 整组判断**:本项目第一张 dim 表 dim_usr_user_ful_d 落地(commits 5a28815 / 305a63b / ad7925a / 5d09add / 7c6cb5e)后沉淀通用范式:(a) init 扫 ods 历史 dt<${dt} + ROW_NUMBER 取每 pk 最新版本落 dim.${pdt} 首日分区;(b) sche 今日 ods 增量 + 昨日 dim 基线 + UNION ALL(today_rebuilt 重 join + unchanged 直接保留);(c) 字段合并按"组"用 CASE WHEN(如 base 整组按 bu.id IS NOT NULL,cert 整组按 ci.user_id IS NOT NULL),不用字段级 COALESCE 避免业务库主动置 NULL 场景下昨日值错误兜底;(d) init 与 sche 同日上线 init 灌 ${pdt} + sche 写 ${dt} 链路打通。否决方案:每日全量重算(扫描成本高)/ FULL JOIN + COALESCE(NULL 不安全)/ 扫 ods 历史 + broadcast filter(IO 成本高)/ MERGE INTO(Spark 2.4 不支持,迁 Spark 3+ / Hudi / Iceberg / Delta Lake 后再用)。 | — |
 | 2026-04-22 | **仓库改名 `tendata-warehouse-release` → `poyee-data-warehouse` 收尾**:项目根目录由用户手动改名完成;代码侧 `dw_base/utils/file_utils.py:9` + `dw_base/utils/hdfs_merge_small_file.py:7` 两处 `re.sub(r"tendata-warehouse.*", ...)` 字面量同步更新。`.idea/*.iml` / `modules.xml` / `workspace.xml` 因 `.idea` + `*.iml` 在 `.gitignore`,属本地 IDE 状态,不入库亦不影响运行(老 `tendata-warehouse-release.iml` + modules.xml / workspace.xml 里的 module name 残留不处理)。联动 kb/90 §1.1 L88 表格行打勾 + §2.3 末尾"与仓库改名的联动"段压缩为一行记录 | — |
 | 2026-04-21 | **聚簇 A.4 Spark 参数外配 + `spark_sql.py` 三级覆盖**:按业务调整频率拆两文件入库 —— `conf/spark-defaults.conf`(12 条底层行为/开关类,初始化后少改:`spark.sql.adaptive/broadcastTimeout/codegen/arrow*/files/statistics.*` + `spark.dynamicAllocation.enabled` + `spark.files.ignoreCorruptFiles` + `spark.debug.maxToStringFields` + `spark.port.maxRetries` + `hive.exec.orc.default.block.size`)+ `conf/spark-tuning.conf`(10 条资源/并行度/队列,业务早期常改:`spark.{driver,executor}.{memory,cores}` + `spark.executor.instances` + `spark.executor.memoryOverhead` + `spark.driver.maxResultSize` + `spark.default.parallelism` + `spark.sql.shuffle.partitions` + `spark.yarn.queue`)。`dw_base/spark/spark_sql.py` 改造:(a) 模块级新增 `_load_spark_conf_file(path)`,读 Spark 原生 `key value` 格式,支持 `#` 注释与空行,文件缺失返回 `{}` 容错单测;(b) `__init__` 10 个 tuning 相关构造参数默认值 `'2g' / 200 / ...` → `Optional[...] = None` sentinel,不破坏既有调用点显式传参;(c) `__init_spark_session` 原 22 条硬编码 `.config(...)` 链替换为三段:L1 先 `spark-defaults.conf` 后 `spark-tuning.conf`(相同 key tuning 覆盖 defaults)→ L2 `self._final_spark_config`(SQL 内 SET)→ L3 构造参数非 None 项 + `extra_spark_config`(L3 内 extra 覆盖 named),保持原"extra > SQL SET > named" 的向后兼容;日志分层打 `L1/L2/L3` 前缀便于排查。联动:`kb/90 §2.2` conf 结构加 `spark-tuning.conf` + `§2.3` 改写为两文件模型(去单文件草案)+ 删"坑 2"(B1 → A2 依赖边)+ 聚簇 L59 依赖边删 | — |
 | 2026-04-22 | **datasource 扁平化 + db_type 按父目录段判定(方向反转)**:反转 2026-04-15 起立项的"一套代码跑多环境"设计(kb/90 原 §2.5:`-env` 参数 + `datasource/{db_type}/{env}/{instance}.ini` 分层 + env 注入)。实际前期跨环境同步是常态(test 业务库 → prod HDFS),"全局 env"概念不成立。新方案:(a) source ini 落位 `datasource/{db_type}/{env}-{实例简称}.ini`,env 写进文件名(env ∈ dev/test/prod),扁平组织;(b) sync ini 内 `dataSource = {db_type}/{env}-{实例简称}`(强制带 db_type 前缀;旧裸名 `hdfs-ha` 不再支持);(c) 代码侧 `dw_base/datax/plugins/plugin.py:37` + `plugin_factory.py:34` 的 db_type 提取从"文件名按 `-` 切首词"改为"按 `/` 切首段"(父目录名)—— 旧算法在新文件名出现 `-` 时会把 `env` 误判为 db_type,必须改。联动:kb/00 §1 目录树重绘(去 env 子目录,加样例 `prod-hobby.ini` / `test-hobby.ini` / `prod-ha.ini` 等 + sync ini 引用形式说明段)+ §6.1 配置分类表落位描述、kb/02 §4 同步、kb/21 §3.9 过时 3 行修正(废 `-env` 注入表述;引用形式 `{db_type}/{env}-{实例简称}`;JSON 输出路径去 `{env}/` 层)、kb/90 §2.1 硬编码表合并 3 行为 1 行 + §2.5 大幅压缩(三阶段设计整段删,保留路径解耦部分)+ §2.8 末尾表行更新 + §八 状态表合并、kb/92 L90 checklist 落位改扁平。conf/templates/datasource/\*.template.ini × 3 头注释补"落位"+"dataSource 引用"两行。`bin/datax-job-config-generator.py` L5/L114/L115 的路径注释讲的是另一个 `conf/datax/config/` 作业分组层级,与本次 datasource 扁平化无关,不动;`dw_base/datax/plugins/reader/mysql_reader.py:178` `{group}/mysql-{database}` 生成逻辑是非活跃代码(批量采集未启动),留到 §2.7 重构时对齐 | — |

+ 46 - 0
kb/93-架构决策.md

@@ -307,3 +307,49 @@
   - mask conf 格式本身需要重大调整,dq 模块可能要解耦自己维护
 
 - **实施节奏**:表数 ≥ 5 张时启动;< 5 张靠人工巡检 + 偶尔重跑 sync 生成器 diff。
+
+### ADR-08 DIM ful_d 跑批:业界主流模式 B + 字段 CASE WHEN 整组判断
+
+- **状态**:已采纳
+
+  dim ful_d 全量快照需要每日产出最新分区,增量更新方式选型。Hive / Spark 2.4 不支持 MERGE INTO(Hudi / Iceberg / Delta Lake 才有);业务库存在"主动置 NULL"场景(用户解绑某属性时业务库直接写 NULL),字段级 COALESCE 在新值是 NULL、老值非 NULL 时会**错误地用昨日值兜底**导致 dim 数据滞后。
+
+  本项目第一张 dim 表 `dim_usr_user_ful_d`(kb/28 §2)落地时定下范式,未来所有 dim_*_ful_d 表沿用。
+
+- **决策**:
+
+  - **init**(首次回刷):扫 ods 历史分区 `dt < ${dt}` + `ROW_NUMBER` 取每 pk 最新版本,落 `dim.dt=${pdt}` 单分区
+  - **sche**(日常增量):今日 ods 增量(`dt=${dt}`)+ 昨日 dim 基线(`dt=${pdt}`)+ UNION ALL
+    - today_changed = 今日 ods 各源表(如 base / cert)变更 pk 集合(UNION)
+    - today_rebuilt = today_changed 这些 pk 重 join 形成新 dim 行(FULL OUTER JOIN 多源 + LEFT JOIN 昨日 dim 兜底)
+    - unchanged = 昨日 dim 中 `pk NOT IN today_changed` 的行直接保留
+    - INSERT OVERWRITE `dim.dt=${dt}` PARTITION
+  - **字段合并用 CASE WHEN 按"组"判断**,不是字段级 COALESCE:
+    - 如 base 字段统一 `CASE WHEN bu.id IS NOT NULL THEN bu.x ELSE o.x END`
+    - cert 字段统一 `CASE WHEN ci.user_id IS NOT NULL THEN ci.x ELSE o.x END`
+    - 派生字段(如 is_cert)按业务语义自定义 CASE WHEN
+  - **init 与 sche 同日上线**:sched=T 时 init 灌 `${pdt}`(T-2)+ sche 写 `${dt}`(T-1),链路打通无空窗
+
+- **后果**:
+
+  - 正面:
+    - 业界主流(阿里 OneData / 字节 / 美团 Hive 数仓 SCD Type 1 增量标准范式)
+    - dim 大表只 scan 不 shuffle(broadcast NOT IN / LEFT ANTI 剪枝);shuffle 量小性能稳定
+    - "主动置 NULL" 安全:业务库改 NULL 整组字段同步反映到 dim,不被昨日值错误兜底
+    - init / sche 共用字段表 + 同日打通无空窗
+  - 负面:
+    - 多源(如 base + cert)合并时 CASE WHEN 字段表冗长(每字段 1 行 CASE WHEN)
+    - sche 写法长但结构对称,每张多源 dim 表都要重复一遍
+
+- **候选方案**:
+
+  - **每日全量重算**(扫 ods 历史 + ROW_NUMBER 不依赖昨日 dim):实现最简但每天扫 ods 多 dt 分区文件 IO 开销大;数据量增长后性能下降——否决
+  - **FULL JOIN + 字段级 COALESCE**(`COALESCE(bu.field, o.field)`):写法紧凑但业务库主动置 NULL 时 COALESCE 用昨日值替代今日 NULL 导致 dim 数据滞后——否决
+  - **扫 ods 历史 + broadcast id IN today_changed 剪枝**(不依赖昨日 dim 拉字段):扫 ods 多 dt 分区文件 IO 开销 vs 现版只扫今日单分区——否决,扫描成本更高
+  - **MERGE INTO**(Spark 3+ / Iceberg / Hudi / Delta Lake 原生支持):语义最清晰性能最好;本项目 Spark 2.4 + Hive ORC 不支持——本阶段不取
+
+- **反悔条件**:
+
+  - 迁 Spark 3+ / Iceberg / Hudi / Delta Lake 后改 MERGE INTO(更优)
+  - dim 表数据量增长导致 sche shuffle 性能下降,评估改"分区裁剪 + 局部重算"
+  - 业务库消除"主动置 NULL" 场景后,可放宽到字段级 COALESCE 简化写法