sql-with-hive-metastore”之间有什么区别?在生产中,应该使用哪一种?为什么?

r8uurelv  于 2021-06-26  发布在  Hive
关注(0)|答案(0)|浏览(211)

这是我的看法:
spark上的配置单元使配置单元能够将apache spark用作其执行引擎。spark sql还支持读取和写入存储在apache配置单元中的数据。spark上的配置单元仅使用spark执行引擎。sparksql和hivemetastore不仅使用spark执行引擎,还使用spark-sql,spark-sql是用于结构化数据处理和执行sql查询的spark模块。由于spark sql with hive metastore不支持所有配置单元配置和配置单元metastore的所有版本(可用版本为0.12.0到1.2.1.),在生产中,spark上的配置单元部署模式更好更有效。
那么,我错了吗?有人有其他想法吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题