我在azure中有两个集群,一个用于spark 2.0,另一个用于hbase。我可以很好地填充和使用hbase,现在我想把spark连接到hbase并做一些计算。我想用python,因为我不懂scala。我的第一个问题是:最好的方法是什么?spark->hive->hbase还是直接spark到hbase?能给我一个插入和查询的好例子吗?谢谢?
e4yzc0pl1#
如果你对通过spark-to-hbase连接器直接使用spark-to-hbase很酷,zhan zhang在http://hortonworks.com/blog/spark-hbase-dataframe-based-hbase-connector/ 提供例子。嗯!
1条答案
按热度按时间e4yzc0pl1#
如果你对通过spark-to-hbase连接器直接使用spark-to-hbase很酷,zhan zhang在http://hortonworks.com/blog/spark-hbase-dataframe-based-hbase-connector/ 提供例子。
嗯!