我已经在ec2示例上安装了一个单节点hadoop集群。然后我在hdfs上存储了一些测试数据,并尝试将hdfs数据加载到sapvora。我正在为这个项目使用sapvora2.0。
要创建表并将数据加载到vora,我正在运行以下查询:
drop table if exists dims;
CREATE TABLE dims(teamid int, team string)
USING com.sap.spark.engines.relational
OPTIONS (
hdfsnamenode "namenode.example.com:50070",
files "/path/to/file.csv",
storagebackend "hdfs");
当我运行上述查询时,得到以下错误消息:
com.sap.vora.jdbc.VoraException: HL(9): Runtime error.
(could not handle api call, failure reason : execution of scheduler plan failed:
found error: :-1, CException, Code: 10021 : Runtime category : an std::exception wrapped.
Next level: v2 HDFS Plugin: Exception at opening
hdfs://namenode.example.com:50070/path/to/file.csv:
HdfsRpcException: Failed to invoke RPC call "getFsStats" on server
"namenode.example.com:50070" for node id 20
with error code 0, status ERROR_STATUS
hadoop和vora在不同的节点上运行。
1条答案
按热度按时间gz5pxeao1#
您应该指定hdfs namenode端口,通常是8020。50700是webui的端口。例如,hdfs的默认namenode端口是50070,但我在一些地方遇到过8020或9000