我有一个有3个分区列的表
create table tn(
col1 string,
etc...
)
partitioned by (
time_key date,
region string,
city string
)
stored as orc
tblproperties ("orc.compress"="ZLIB");
城市分区的大小可以从几mb到几百mb不等。我正在尝试优化存储,以便将所有小文件合并为一个块大小为128mb的文件,并相应地拆分较大的文件。
源表有200个文件,每个文件大约150 mb。它没有分区。
我做了一个简单的插入语句。
INSERT INTO TABLE tn PARTITION (time_key, region, city)
SELECT * FROM source_tn;
并获取此错误 NullPointerException
.
set hive.merge.tezfiles=true;
set hive.merge.smallfiles.avgsize=128000000;
set hive.merge.size.per.task=128000000;
set hive.merge.orcfile.stripe.level=true;
set hive.auto.convert.join=false;
如果我在没有这些设置的情况下尝试插入,结果会很好,因此数据没有任何问题。这种情况下的问题是 city
子分区包含大约200个文件。中的文件总数 time_key
分部达到3-4万。
有什么问题,我能做什么?
我用的是Hive特兹。
1条答案
按热度按时间9rbhqvlz1#
将此设置为false会有所帮助。