在apachespark中,每个阶段的任务是基于什么基础/条件划分的?

6mzjoqzu  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(264)

我想了解spark的内部结构,spark在什么基础和条件下分配任务。
注意:我知道spark驱动程序是如何在分区上分配任务的,以及它是如何由内核上的执行器并行执行的。我还知道spark驱动程序划分任务,任务的数量取决于分区的数量。
任何帮助都将不胜感激!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题