hive orc压缩

ubof19bj  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(308)

我在hivev0.12.0中运行了以下代码,我希望得到三个使用不同方法压缩的表,因此文件的大小和内容应该不同。

--- Create table and compress it with ZLIB
create table zzz_test_szlib
  stored as orc
  tblproperties ("orc.compress"="ZLIB")
  as
select * from uk_pers_dev.orc_dib_trans limit 100000000;

--- Create table and compress it with SNAPPY
create table zzz_test_ssnap
  stored as orc
  tblproperties ("orc.compress"="SNAPPY")
  as
select * from uk_pers_dev.orc_dib_trans limit 100000000;

--- Create table and DO NOT compress it
create table zzz_test_snone
  stored as orc
  tblproperties ("orc.compress"="NONE")
  as
select * from uk_pers_dev.orc_dib_trans limit 100000000;

当我使用descripe或through-hue检查表元数据时,我得到:

Name             Value                                            Value                                            Value
---------------- ------------------------------------------------ ------------------------------------------------ ------------------------------------------------
tableName        test_orc_zlib                                    test_orc_snappy                                  test_orc_none
location:hdfs    /user/hive/warehouse/test_orc_zlib               /user/hive/warehouse/test_orc_snappy             /user/hive/warehouse/test_orc_none
inputFormat      org.apache.hadoop.hive.ql.io.orc.OrcInputFormat  org.apache.hadoop.hive.ql.io.orc.OrcInputFormat  org.apache.hadoop.hive.ql.io.orc.OrcInputFormat
outputFormat     org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat
compressed       FALSE                                            FALSE                                            FALSE
serializationLib org.apache.hadoop.hive.ql.io.orc.OrcSerde        org.apache.hadoop.hive.ql.io.orc.OrcSerde        org.apache.hadoop.hive.ql.io.orc.OrcSerde
orc.compress     ZLIB                                             SNAPPY                                           NONE
numFiles         1                                                1                                                1
totalSize        289970088                                        289970088                                        289970088
tableType        MANAGED_TABLE                                    MANAGED_TABLE                                    MANAGED_TABLE

在元数据中,它显示compressed=false,但我不知道如何更改它以及它将如何影响。
但如果我比较表中的数据,它们都是二进制的。

[~]$ hadoop fs -ls /user/hive/warehouse/test_orc_*
-rw-r--r--   3 andrey supergroup  289970088 2014-05-07 13:19 /user/hive/warehouse/test_orc_none/000000_0
-rw-r--r--   3 andrey supergroup  289970088 2014-05-07 12:34 /user/hive/warehouse/test_orc_snappy/000000_0
-rw-r--r--   3 andrey supergroup  289970088 2014-05-07 11:48 /user/hive/warehouse/test_orc_zlib/000000_0

我试图更改/删除这些选项,但没有区别:

SET hive.exec.compress.intermediate=true;
SET hive.exec.compress.output=true;
SET mapred.output.compression.type=BLOCK;

我还尝试使用不同的源表(存储为textfile),没有区别。
有什么想法或建议吗?

cgvd09ve

cgvd09ve1#

我相信这是由于0.12中的一个已知错误造成的
看看这个吉拉 hive -6083

相关问题