根据文档https://cloud.google.com/dataproc/docs/support/spark-job-tuning#:text = spark. -,sql.,less%20than%20100%20vCPUs%20total.,spark.sql.shuffle.partitions的默认值为200。
每个工作节点级别或整个群集级别的默认值是200吗?例如:如果我们有1个驱动器和5个工作节点,默认值是200还是200*5个工作节点=1000
根据文档https://cloud.google.com/dataproc/docs/support/spark-job-tuning#:text = spark. -,sql.,less%20than%20100%20vCPUs%20total.,spark.sql.shuffle.partitions的默认值为200。
每个工作节点级别或整个群集级别的默认值是200吗?例如:如果我们有1个驱动器和5个工作节点,默认值是200还是200*5个工作节点=1000
1条答案
按热度按时间slmsl1lt1#
spark.sql.shuffle.partitions
(默认值为200)位于群集级别,与工作进程的数量无关。