我有一个由4个节点组成的集群
nn1型
nn2型
dn1级
dn2级
nn1,nn2名称节点。 node-01
的主机名 nn1
, node-02
的主机名 nn2
. 什么时候 nn1
处于活动状态, nn2
待机。我可以在spark上成功运行程序,如下所示:
bin/spark-submit \
--class test.Test1 \
--master spark://node-01:7077 \
--deploy-mode cluster \
--total-executor-cores 2 \
--executor-memory 1G \
--total-executor-cores 2 \
hdfs://node-01:9000/jar/a.jar
但是什么时候 nn1
是备用的 nn2
处于活动状态时,出现异常: {"RemoteException":{"message":"Operation category READ is not supported in state standby","exception":"RemoteException","javaClassName":"org.apache.hadoop.ipc.RemoteException"}}
我怎么能继续使用相同的命令行 nn1
以及 nn2
改变他们的状态?
谢谢。
暂无答案!
目前还没有任何答案,快来回答吧!