无法将apache spark-2.1.0与hive-2.1.1元存储连接

envsm3lx  于 2021-06-26  发布在  Hive
关注(0)|答案(1)|浏览(393)

spark和hive各自工作正常,但当我尝试将sparkDataframe的输出写入hive表时,出现以下错误:
原因:org.apache.hadoop.hive.metastore.api.metaexception:配置单元架构版本1.2.0与metastore架构版本2.1.0不匹配metastore未升级或损坏
“schematool-dbtype postgres-info”的详细信息附在下面:schematool结果截图
附加说明:在这个databrickspark文档页面中,我发现apachespark只支持从0.12到1.2.1的多个hive版本。
所以我连接的唯一方法就是降级我的Hive版本?或者,是否有其他条款允许我们添加额外的jar来将spark-2.1.0Dataframe写入hive-2.1.1表?
感谢你对此的意见。提前谢谢。

yjghlzjz

yjghlzjz1#

最后我自己找到了答案。会对那些有同样问题的人有所帮助。
可以通过在hive-site.xml文件中添加以下参数来解决此问题

<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>

相关问题