spark executor配置优先级

of1yzvn4  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(670)

我看到一个spark submit命令,参数如下

  1. spark-submit --class ${my_class} \
  2. --master yarn \
  3. --deploy-mode cluster \
  4. --executor-cores 2 \ <--- executor cores
  5. --driver-cores 2\ <--- driver cores
  6. --num-executors 12 \ <--- number of executors
  7. --files hdfs:///blah.xml \
  8. --conf spark.executor.instances=15 \ <--- number of executors again?
  9. --conf spark.executor.cores=4 \ <--- driver cores again?
  10. --conf spark.driver.cores=4 \ <--- executor cores again?

对于executor和driver节点,似乎可以有多种方式设置核心号和示例号,只是想知道,在上面的设置中,哪种方式优先,覆盖另一种?这个 -- 参数或 conf 参数?最终有多少核心和示例被赋予了spark任务?

holgip5t

holgip5t1#

根据偏好顺序选择配置。
优先级方面,通过set()在应用程序中定义的配置将获得最高优先级。第二个优先级是spark submit参数,然后下一个优先级是default config参数。 --executor-cores 2 \ <--- executor cores --driver-cores 2\ <--- driver cores --num-executors 12 \ <--- number of executors 上面的配置将优先于--conf参数,因为这些属性用于覆盖默认的conf优先级。

相关问题