如何在多节点hadoop集群上设置spark?

uqdfh47h  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(454)

我想在多节点集群上安装hadoophdfs和spark。
我能够在多节点集群上成功地安装和配置hadoop。我还在主节点上安装并配置了spark。
我有疑问,我必须配置的Spark奴隶以及?

ktecyv1j

ktecyv1j1#

我有疑问,我必须配置在奴隶以及Spark?
你不应该。你完了。向hadoopyarn提交spark应用程序(我的结论是集群管理器)所做的工作比必须做的还要多。
spark是一个在海量数据集上进行分布式计算的库,因此它只属于spark应用程序(而不是您可能使用的任何集群)。
时间到了 spark-submit spark应用程序!

相关问题