如何使用配置单元库运行spark submit

0tdrvxhp  于 2021-06-24  发布在  Hive
关注(0)|答案(0)|浏览(283)

目前我正在尝试将Dataframe中的一些数据写入配置单元表。
我可以在master=local[]&depoy mode=client中这样做。但是当我切换到master=yarn&depoy mode=cluster时,executor节点找不到所需的配置单元库。
一种选择是在--jars中提供所有必需的jar,但是有很多jar,我不知道应该包括哪些特定的jar。
我不知道如何解决这个问题:
executor节点是否应该为hivejar设置所有类路径,而我们不需要为基本的hivejar提供--jar选项?
或者
有没有一种方法可以将hive库的类路径添加到spark驱动程序jvm中,这样它就可以分发它们,而不必特别提到每个jar?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题