我在hue笔记本中运行了pyspark代码,注意到作业分布不均匀(可以看到nn4和nn6节点被完全占用,而其他节点则相当空闲)。我已经检查了所有节点的连接,都正常工作。我该如何解决这个问题,或者这种行为正常吗?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!