我今天来找你是因为我对hbase中的批量加载有问题。对于一个学校项目,我必须对压缩和数据块编码的不同参数进行基准测试。在begging中,我使用happybase做“一次一个输入”的插入。因为我需要尝试更大的数据集(大约2.2go),所以我尝试使用importtsv加载表中的数据。为此,我使用以下命令行: hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separator=" " –Dimporttsv.columns=HBASE_ROW_KEY,SPOC:S,SPOC:P,SPOC:O,SPOC:C SPOC /hbase/schema_Airport_inserted_SPOC.tsv
.
命令行向我抛出此错误: ERROR: No columns specified. Please specify with -Dimporttsv.columns=...
我的tsv文件如下所示: HBASE_ROW_KEY SPOC:S SPOC:P SPOC:O SPOC:C a91eccf7b0bf2202d8ab752a0cb3fef4e5f56fca5ea2761de99928525009140d8c1c7397c4f281b5361b75d0017e936e2287a7a7bd0d44f92f244607ed2f5c2c <http://www.budgetplaces.com/hr/chaweng-beach/> <http://schema.org/WebPage> _:node257724ceb7c17c4b3355d83bbfb58988 <http://www.w3.org/1999/02/22-rdf-syntax-ns#type>
因为我是hbase的新手,所以感觉它只是忽略了我的参数。
谢谢你的阅读和帮助!很抱歉我的数据结构的可读性
暂无答案!
目前还没有任何答案,快来回答吧!