无法通过spark使用配置单元查询创建hbase表

wixjitnu  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(156)

使用以下教程:https://hadooptutorial.info/hbase-integration-with-hive/,我能够与hive进行hbase集成。配置完成后,我成功地使用配置单元表Map的配置单元查询创建了hbase表。
配置单元查询:

CREATE TABLE upc_hbt(key string, value string) 
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,value:value")
TBLPROPERTIES ("hbase.table.name" = "upc_hbt");

spark scala公司:

val createTableHql : String = s"CREATE TABLE upc_hbt2(key string, value string)"+
      "STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'"+
      "WITH SERDEPROPERTIES ('hbase.columns.mapping' = ':key,value:value')"+
      "TBLPROPERTIES ('hbase.table.name' = 'upc_hbt2')"

    hc.sql(createTableHql)

但是,当我通过spark执行相同的配置单元查询时,它会抛出以下错误:

Exception in thread "main" org.apache.spark.sql.execution.QueryExecutionException: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. org.apache.hadoop.hive.ql.metadata.HiveException: Error in loading storage handler.org.apache.hadoop.hive.hbase.HBaseStorageHandler

在通过spark执行hive的过程中,似乎找不到auxpath jar的位置。有什么办法解决这个问题吗?
事先非常感谢。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题