spark-defaults.conf 1.2 KB

1234567891011121314151617181920212223242526
  1. # Spark 底层运行时默认参数(原生格式:key value,# 注释,空白分隔)
  2. # 本文件收录行为/开关/调试类参数,初始化后应极少改动。业务调优参数见 conf/spark-tuning.conf。
  3. # 加载入口:dw_base/spark/spark_sql.py 构造 SparkSession 前加载
  4. # 覆盖规则:L1 本文件 + spark-tuning.conf < L2 SQL 内 SET(仅 spark.sql.*)< L3 构造函数显式传参 / extra_spark_config
  5. # Hive ORC
  6. hive.exec.orc.default.block.size 134217728
  7. # 调试
  8. spark.debug.maxToStringFields 5000
  9. # 动态分配与端口
  10. spark.dynamicAllocation.enabled false
  11. spark.port.maxRetries 999
  12. # 容错:读取时跳过损坏文件
  13. spark.files.ignoreCorruptFiles true
  14. spark.sql.files.ignoreCorruptFiles true
  15. # SQL 优化器 / 执行行为
  16. spark.sql.adaptive.enabled true
  17. spark.sql.broadcastTimeout -1
  18. spark.sql.codegen.wholeStage false
  19. spark.sql.execution.arrow.enabled true
  20. spark.sql.execution.arrow.fallback.enabled true
  21. spark.sql.statistics.fallBackToHdfs true