如何在spark上的hive中设置hive的参数

0dxa2lsx  于 2021-06-28  发布在  Hive
关注(0)|答案(0)|浏览(616)

我在spark中使用hive,编写scala代码,通过hive上下文执行hivesql,通过spark提供的submit脚本提交jar,我可以通过添加

/xx/xx/spark-submit --conf "xxx.xxx=xx" ...

在我项目的开始脚本中。
但是如何在scala代码或shell脚本中设置hive.groupby.skewindata=true这样的参数呢?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题