为什么spark shell中的hivecontext给出错误的配置值

vsaztqbk  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(242)

在spark shell中,hivecontext的“hive.metastore.warehouse.dir”错误。
我已经准备好了 hive-site.xml 我已经检查过了 getConf("my.conf.test") ```

hive.metastore.warehouse.dir
/user/hive/warehouse


hive.conf.test
yes

.

scala> sqlContext.getConf("hive.conf.test")
res3: String = yes

但对于metastore dir conf,它并没有提供我在配置单元站点中设置的内容。

scala> sqlContext.getConf("hive.metastore.warehouse.dir")
res3: String = file:/tmp/spark-7ff284bc-4b1b-400f-8bc4-2f8a97d86399/metastore

就连我 `metastore.warehouse.dir` 错误的是,它应该给出一个默认值 `/user/hive/warehouse` 但不是 `/tmp/.........` .
ccrfmcuu

ccrfmcuu1#

我也遇到了同样的问题。我的解决方案是一个新的hiveconf,它将自动加载hive-site.xml

val hiveConf = new HiveConf()
hiveConf.get("hive.metastore.warehouse.dir")

相关问题