这是我的看法:
spark上的配置单元使配置单元能够将apache spark用作其执行引擎。spark sql还支持读取和写入存储在apache配置单元中的数据。spark上的配置单元仅使用spark执行引擎。sparksql和hivemetastore不仅使用spark执行引擎,还使用spark-sql,spark-sql是用于结构化数据处理和执行sql查询的spark模块。由于spark sql with hive metastore不支持所有配置单元配置和配置单元metastore的所有版本(可用版本为0.12.0到1.2.1.),在生产中,spark上的配置单元部署模式更好更有效。
那么,我错了吗?有人有其他想法吗?
暂无答案!
目前还没有任何答案,快来回答吧!