phoenix csvbulkloadtool错误

bnl4lu3b  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(367)

我想把csv数据文件到hbase表使用 CsvBulkLoadTool 来自java。
hbase和phoenix正在ubuntu虚拟机上运行。
当我跑的时候 CsvBulkLoadTool.run() 从windows我得到下一个例外:

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.

顺便说一下,当我 java -jar 我的示例应用程序运行在ubuntu vm上,我得到了nex异常:

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar

哪里 /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar 是ubuntuvm上的实际jar文件位置。
我曾经 CsvBulkLoadTool 这里的样品。
另外,当我使用普通jdbc通过phoenix连接和填充表时,一切都正常。

jdgnovmf

jdgnovmf1#

csvbulkloadtool应作为 hadoop jar .
所以我应该跑: hadoop jar my-application-with-CSVBulkloadTool.jar

相关问题