我用flume获取twitter数据。这些数据作为avsc文件存储在hdfs中。我创建了avro模式文件“tweeter.avsc”,并将其保存在hdfs中。但当我试图使用下面的命令创建外部表时,我得到了一个错误。
命令:
CREATE EXTERNAL TABLE tweeter
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED as
INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
LOCATION '/user/hive/warehouse/tweets2'
TBLPROPERTIES
('avro.schema.url'='http://localhost:50070/explorer.html#/user/cloudera/tweets.avsc');
但我有个错误:
失败:执行错误,从org.apache.hadoop.hive.ql.exec.ddltask返回代码1。java.lang.runtimeexception:元异常(message:org.apache.hadoop.hive.serde2.serdeexception encountered 确定架构时发生异常。返回信号架构以指示问题:org.codehaus.jackson.jsonparseexception:意外字符('<'(代码60)):在[source:sun.net]处应为有效值(数字、字符串、数组、对象、'true'、'false'或'null')。www.protocol.http.httpurlconnection$httpinputstream@7851cf69; 行:1,列:2])
请帮忙。
暂无答案!
目前还没有任何答案,快来回答吧!