spark和hive各自工作正常,但当我尝试将sparkDataframe的输出写入hive表时,出现以下错误:
原因:org.apache.hadoop.hive.metastore.api.metaexception:配置单元架构版本1.2.0与metastore架构版本2.1.0不匹配metastore未升级或损坏
“schematool-dbtype postgres-info”的详细信息附在下面:schematool结果截图
附加说明:在这个databrickspark文档页面中,我发现apachespark只支持从0.12到1.2.1的多个hive版本。
所以我连接的唯一方法就是降级我的Hive版本?或者,是否有其他条款允许我们添加额外的jar来将spark-2.1.0Dataframe写入hive-2.1.1表?
感谢你对此的意见。提前谢谢。
1条答案
按热度按时间yjghlzjz1#
最后我自己找到了答案。会对那些有同样问题的人有所帮助。
可以通过在hive-site.xml文件中添加以下参数来解决此问题