我阅读了一些有关spark任务调度的文献,发现一些文章提到执行器在每一时刻都只被一个应用程序独占。所以我想知道一个执行器中的任务槽是否可以由不同的spark应用程序同时共享?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!