使用托管在172.16.53.31:8787的r-hadoop,我尝试将文件从hdfs导入托管在172.16.53.31:54331(原来是54321)的h2o。发生了此错误。你知道吗?或者有什么建议?请,谢谢。真诚地,新兵
watbbzwu1#
很难读取粘贴到屏幕上的屏幕截图错误,但它看起来像invalidprotocolbufferexception。在这种情况下,它看起来像hdfs://172.16.53.31:“形式不好。“试试看”hdfs://172.16.53.31“没有港口。或者尝试为hadoop安装添加正确的端口。如果你给了一个完全错误的端口,你所指的东西就不会说话了。当hadoop客户端版本与hadoop服务器版本相差太大时,也会发生此错误(请注意,如果您使用'hadoop jar'方法启动h2o,则正确的hadoop库将由'hadoop jar'放在客户机类路径上。)如果您使用“hadoopjar”启动h2o,那么您通常从环境中获取名称节点,只需给出“hdfs:///path/to/file.csv”,而不指定名称节点。
pgpifvop2#
我也有同样的问题。尝试将9000端口号添加到hdfs路径。像这样:
hdfs://<ip>:9000/<dataPath>/
2条答案
按热度按时间watbbzwu1#
很难读取粘贴到屏幕上的屏幕截图错误,但它看起来像invalidprotocolbufferexception。
在这种情况下,它看起来像hdfs://172.16.53.31:“形式不好。
“试试看”hdfs://172.16.53.31“没有港口。或者尝试为hadoop安装添加正确的端口。
如果你给了一个完全错误的端口,你所指的东西就不会说话了。
当hadoop客户端版本与hadoop服务器版本相差太大时,也会发生此错误(请注意,如果您使用'hadoop jar'方法启动h2o,则正确的hadoop库将由'hadoop jar'放在客户机类路径上。)
如果您使用“hadoopjar”启动h2o,那么您通常从环境中获取名称节点,只需给出“hdfs:///path/to/file.csv”,而不指定名称节点。
pgpifvop2#
我也有同样的问题。
尝试将9000端口号添加到hdfs路径。
像这样: