hdfsrpcexception:未能在服务器上调用rpc调用“getfsstats”

0ve6wy6x  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(672)

我已经在ec2示例上安装了一个单节点hadoop集群。然后我在hdfs上存储了一些测试数据,并尝试将hdfs数据加载到sapvora。我正在为这个项目使用sapvora2.0。
要创建表并将数据加载到vora,我正在运行以下查询:

drop table if exists dims;
CREATE TABLE dims(teamid int, team string)
USING com.sap.spark.engines.relational 
OPTIONS (
hdfsnamenode "namenode.example.com:50070",
files "/path/to/file.csv",
storagebackend "hdfs");

当我运行上述查询时,得到以下错误消息:

com.sap.vora.jdbc.VoraException: HL(9): Runtime error.
  (could not handle api call, failure reason : execution of scheduler plan failed:
    found error: :-1, CException, Code: 10021 : Runtime category : an std::exception wrapped.
    Next level: v2 HDFS Plugin: Exception at opening
    hdfs://namenode.example.com:50070/path/to/file.csv:
    HdfsRpcException: Failed to invoke RPC call "getFsStats" on server
    "namenode.example.com:50070" for node id 20
    with error code 0, status ERROR_STATUS

hadoop和vora在不同的节点上运行。

gz5pxeao

gz5pxeao1#

您应该指定hdfs namenode端口,通常是8020。50700是webui的端口。例如,hdfs的默认namenode端口是50070,但我在一些地方遇到过8020或9000

相关问题