我刚开始使用pentaho的hdfs vfs,对这个项目不太了解。我正在尝试从外部位置读取hadoop配置文件。对于除hdfs-site.xml以外的所有文件,这似乎都可以正常工作。当尝试通过pentaho hdfs vfs项目与hdfs通信时,vfs层发生故障。我的直觉告诉我pentaho是通过一些环境变量或其他外部指针读取这个文件的,但我似乎在它们的源代码中找不到它。当我手动将hdfs-site.xml文件放在编译的war文件中时,一切正常,但这对我来说是不够的,因为我需要将此文件放在外部位置,以便其他进程可以更改它。
以前有人处理过这个问题吗?有人能告诉我怎么告诉pentaho从哪里取这个文件吗?
谢谢
2条答案
按热度按时间svdrlsy41#
所以我想了一个让pentaho hdfs工作的方法,您所需要做的就是将hdfs-site.xml添加到您的类路径中。我在启动jar文件时这样做了:
java-jar start.jar--lib=/etc/hadoop/conf.cloudera.yarn1
而/etc/hadoop/conf.cloudera.yarn1是hdfs-site.xml所在的目录。
alen0pnh2#
你能提供更多的信息吗?你说的是pentaho发布的vfs api吗?