至于现在最新版本的 Spark (2.1.0)列出了 Hive 比如:带bucket的表:bucket是配置单元表分区中的哈希分区。sparksql还不支持bucket。意思是 Hive 具有屈曲柱结构的表将不会作为 DataFrame 处理得当。有一些解决方法可以通过 JDBC 主要的问题是如何利用计算机实现完全控制 Spark SQL 在用delta实现的表上?
Spark
Hive
DataFrame
JDBC
Spark SQL
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!