我想把csv数据文件到hbase表使用 CsvBulkLoadTool
来自java。
hbase和phoenix正在ubuntu虚拟机上运行。
当我跑的时候 CsvBulkLoadTool.run()
从windows我得到下一个例外:
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
顺便说一下,当我 java -jar
我的示例应用程序运行在ubuntu vm上,我得到了nex异常:
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
哪里 /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
是ubuntuvm上的实际jar文件位置。
我曾经 CsvBulkLoadTool
这里的样品。
另外,当我使用普通jdbc通过phoenix连接和填充表时,一切都正常。
1条答案
按热度按时间jdgnovmf1#
csvbulkloadtool应作为
hadoop jar
.所以我应该跑:
hadoop jar my-application-with-CSVBulkloadTool.jar