partition.py 2.5 KB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677
  1. # -*- coding:utf-8 -*-
  2. """
  3. DataX hive-import 场景的分区管理(从 bin/datax-multiple-hive-job-starter.sh:132-158 parse_ddl
  4. + L229-241 HIVE_DDL 执行段搬迁 Python 版)。
  5. 职责:
  6. - parse_ini_partition: 从 ini 的 writer.path 抽 {db}.{table},返回 ALTER DDL;非分区表返回 None
  7. - execute_ddls: 调 hive -e 执行一批 ALTER DDL
  8. 关键约束(kb/90 §2.6 实现建议 5):分区 dt 用 stop_date - 1 day,与 HDFS writer 对齐;
  9. 不沿用老脚本 START_DATE = dt 的假设(单日范围下两者相等没问题,多日范围错位)。
  10. """
  11. import subprocess
  12. from configparser import ConfigParser
  13. from datetime import datetime, timedelta
  14. from typing import List, Optional
  15. _DT_PLACEHOLDER = '/dt=${dt}'
  16. def compute_partition_dt(stop_date: str) -> str:
  17. """
  18. 分区日期 = stop_date - 1 day(与 HDFS writer 对齐)。
  19. stop_date 格式 yyyyMMdd。
  20. """
  21. stop_at = datetime.strptime(stop_date, '%Y%m%d')
  22. return (stop_at - timedelta(days=1)).strftime('%Y%m%d')
  23. def parse_ini_partition(ini_path: str, stop_date: str) -> Optional[str]:
  24. """
  25. 读 ini 的 writer.path 提取 {db}.{table},生成 ALTER ADD PARTITION DDL。
  26. 非分区表(path 不含 /dt=${dt})或找不到 {db}.{table} 段 → None。
  27. """
  28. cp = ConfigParser()
  29. cp.read(ini_path)
  30. if not cp.has_option('writer', 'path'):
  31. return None
  32. path = cp.get('writer', 'path')
  33. if _DT_PLACEHOLDER not in path:
  34. return None
  35. db = None
  36. tbl = None
  37. parts = [p for p in path.split('/') if p]
  38. for i, seg in enumerate(parts):
  39. if seg.endswith('.db') and i + 1 < len(parts):
  40. db = seg[:-len('.db')]
  41. tbl = parts[i + 1]
  42. break
  43. if not (db and tbl):
  44. return None
  45. dt = compute_partition_dt(stop_date)
  46. return 'ALTER TABLE {db}.{tbl} ADD IF NOT EXISTS PARTITION(dt={dt});'.format(
  47. db=db, tbl=tbl, dt=dt,
  48. )
  49. def execute_ddls(ddls: List[str]) -> None:
  50. """
  51. 调 hive -e 批量执行 ALTER DDL(一次 hive CLI 进程执行所有 DDL,空格分隔)。
  52. 空列表无操作;失败抛 RuntimeError 含 stderr 内容。
  53. """
  54. if not ddls:
  55. return
  56. full_sql = ' '.join(ddls)
  57. # Python 3.6.8 无 capture_output 参数,用 stdout=PIPE, stderr=PIPE
  58. result = subprocess.run(
  59. ['hive', '-e', full_sql],
  60. stdout=subprocess.PIPE,
  61. stderr=subprocess.PIPE,
  62. )
  63. if result.returncode != 0:
  64. stderr = result.stderr.decode('utf-8', errors='replace')
  65. raise RuntimeError('hive -e 执行分区 DDL 失败: ' + stderr)