我已经在linux机器上安装了spark 1.5.2 build with hive。配置单元元存储仓库目录的默认路径是:/user/hive/warehouse。这是本地路径还是hdfs路径?我问这个问题,因为我不能在linux中搜索这个路径。如果它是一个hdfs路径(很可能),那么我们可以在没有安装hadoop的情况下访问它吗?
68de4m5k1#
您可以在本地以及hive-site.xml文件中创建仓库hive.metastore.warehouse.dir文件:///tmp
o7jaxewo2#
键入jps并查看是否所有服务都在运行。如果正在运行,请检查路径/user/hive/warehouse中是否存在metastore\ db
hgc7kmma3#
是的,/user/hive/warehouse是hdfs路径。您需要安装并运行hadoop服务(至少是namenode、secondary namenode、datanode)以使hdfs可用。
3条答案
按热度按时间68de4m5k1#
您可以在本地以及hive-site.xml文件中创建仓库
hive.metastore.warehouse.dir文件:///tmp
o7jaxewo2#
键入jps并查看是否所有服务都在运行。如果正在运行,请检查路径/user/hive/warehouse中是否存在metastore\ db
hgc7kmma3#
是的,/user/hive/warehouse是hdfs路径。您需要安装并运行hadoop服务(至少是namenode、secondary namenode、datanode)以使hdfs可用。