apache spark作业在独立集群中处于提交状态

nuypyhwy  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(243)

即使有足够的内核和内存可用,apachespark作业仍处于提交状态。
spark 1.2.1具有独立管理器的群集具有:
总计nodes:3 total cores:8 cores 总计memory:14 gb
除此之外,第一个应用程序使用的是:1gb内存和2核,所以集群仍然有13gb内存和6核可用。但在提交另一份申请后,它将进入提交状态,等待第一份申请完成。
为什么它不能立即启动?为什么它要等待其他应用程序完成?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题