无法在spark包hbasecontext中找到类

flmtquvp  于 2021-06-09  发布在  Hbase
关注(0)|答案(1)|浏览(379)

我试图通过spark使用“hbasecontext”,但无法确定任何细节所有细节都是空白的
[https://hbase.apache.org/apidocs/org/apache/hadoop/hbase/spark/example/hbasecontext/][1]
我试图实现这里解释的一些方法http://blog.cloudera.com/blog/2015/08/apache-spark-comes-to-apache-hbase-with-hbase-spark-module/
有谁能帮上忙

rxztt3cl

rxztt3cl1#

虽然hbasecontext已经在《hbase参考指南》中实现和记录,但是作者/社区还没有发布它,您可以从这个链接中看到hbasecontext提交历史,社区最近仍在进行它的工作(sparkonhbase项目很长一段时间没有更新),对于hbase的任何下载版本,hbase spark模块根本不包括在内。
这对于初学者来说是一个很大的困惑,希望社区能够改进它,要从spark rdd访问hbase,可以把它当作普通的hadoop数据源,hbase确实为此提供了tableinputformat和tableoutputformat。

相关问题