从spark类路径中删除jar

8e2ybdfx  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(635)

我用的是elasticsearchSpark罐。但由于某种原因,当我启动sparkcontext时,它也会从
/usr/lib/hive/lib/elasticsearch-hadoop-hive-2.1.0.jar
这导致了两个冲突的elasticrdd问题。
有人知道jar是如何进入spark的吗?在我开始上下文之前,我如何将它从spark类路径中删除?
谢谢您。

gt0wga4j

gt0wga4j1#

原来这是conf/spark-env.sh中加载该目录的默认配置。这是很容易解决的加载一个不同的文件夹与罐你想要的,而不是那些你不想要的。所以不是这样:
spark\u dist\u classpath=“$spark\u dist\u classpath:/usr/lib/hive/lib/
这将起作用:
spark\u dist\u classpath=“$spark\u dist\u classpath:/usr/lib/hive/lib/spark/

假设您将相关jar复制到该文件夹中

相关问题