我想用scala对spark2的hbase做一个完整的扫描。
我没有固定的目录定义,所以像shc这样的库不是一个选项。
我的逻辑选择是使用hbase spark,这在spark1.6中运行良好
除了在以前的版本中关于这个库的糟糕文档之外,我惊讶的是在检查上一个hbase版本时,例如tag2.0,hbase spark不见了!但还是在主人那里。
所以我的问题是:
最新版本的hbase spark模块在哪里?
在哪里可以找到与spark 2兼容的hbase spark版本?
谢谢!
我想用scala对spark2的hbase做一个完整的扫描。
我没有固定的目录定义,所以像shc这样的库不是一个选项。
我的逻辑选择是使用hbase spark,这在spark1.6中运行良好
除了在以前的版本中关于这个库的糟糕文档之外,我惊讶的是在检查上一个hbase版本时,例如tag2.0,hbase spark不见了!但还是在主人那里。
所以我的问题是:
最新版本的hbase spark模块在哪里?
在哪里可以找到与spark 2兼容的hbase spark版本?
谢谢!
1条答案
按热度按时间bwleehnv1#
似乎
hbase-spark
模块已从2.0版的hbase项目中删除https://issues.apache.org/jira/browse/hbase-18817