对于一个小表(少于100万行,大约1或2gb),它将被许多并行作业(插入和范围扫描)访问,在拆分方面创建这个表的最佳方法是什么?目标是在请求时具有良好的性能和较低的延迟。我的群集中区域的最大大小是20gb,并且有20个带有RegionServer的节点。谢谢。编辑:spark作业访问的表(以及hbase shell/phoenix手动访问的表)两列上的行键(tablename和datetime)日间插入一次+范围扫描
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!