无法使用spark scala递增ColumnValue hbase

atmip9wb  于 2021-06-10  发布在  Hbase
关注(0)|答案(1)|浏览(453)

我使用scala对hbase表进行操作
所以,我有

val myTable = new HTable(hbase_conf, tbl_name)

然后,我尝试使用以下命令增加一个值:

myTable.incrementColumnValue(
  "rowkey".getBytes, 
  "data".getBytes,
  "count".getBytes, 
  1)

我从中得到的结果 hbase shell ```
hbase(main):047:0> get 'test_marketing', 'rowkey', {COLUMN => 'data:count', VERSIONS =>2}

COLUMN CELL
data:count timestamp=1469614608636, value=\x00\x00\x00\x00\x00\x00\x00\x02
data:count timestamp=1469614608609, value=\x00\x00\x00\x00\x00\x00\x00\x01
2 row(s) in 0.0100 seconds

我怎样才能得到一个合理的价值作为结果?
1sbrub3j

1sbrub3j1#

有一个 get_counter 中的命令 hbase shell :
尝试:

get_counter 'test_marketing', 'rowkey', 'data:count'

相关问题