转载:ClickHouse表引擎 MergeTree 索引与数据存储方式
MergeTree 主键使用 primary key 定义
,定义主键后,会将数据依据 index_granularity 参数设置的间隔(默认:8192
)为表生成一级索引保存到 primary.idx
文件中,索引文件按照 primary key 进行排序。但更常用 order by 代替主键,这时索引文件(primary.idx)与数据文件(column_name.bin)会按照相同的规则排序。
primary.idx 文件内的一级索引采用稀疏索引的方式实现的,如下图所示:
索引粒度
对于 MergeTree 而言是一个非常重要的概念,索引粒度如同标尺一样,会标注整个数据的长度,最终数据会形成多个间隔的小段。
自适应粒度
,使用 enable_mixed_granularity_parts
参数开启。index_granularity
参数除了作用于一级索引以外还会影响数据标记(.mrk)和数据文件(.bin)。MergeTree 的一级索引属于稀疏索引
,需要间隔 index_granularity
行数据才会生成一条索引记录,其索引值会依据声明的主键字段获取。
索引值为间隔index_granularity
行数据取一次主键值作为索引值,将几次取指拼接到一起形成最终索引值,索引数据最终会被保存到primary.idx
文件中进行保存。
如下图ID 作为主键 ,order by (ID)
MergeTree 对稀疏索引的存储是非常紧凑的,索引值前后相连,按主键顺序紧密排列在一起,clickhouse 中很多数据结构都被设计的非常紧凑,如使用位读取代替专门的标识位或状态码,不浪费一点空间,这也是 clickhouse 性能出色的原因之一。
如果使用多个主键,索引如下图所示,order by (ID,EventData)
要想知道索引是如何工作的,需要先知道 MarkRange
是什么,MarkRange 是clickhouse 中用于定义标记区间的对象
,MergeTree 按照index_granularity的间隔粒度将一段完整的数据划分成多个小的间隔数据段,其中的每个小的数据段都是一个 MarkRange
。
MarkRange 与索引编号对应,使用 start 和 end 两个属性表示其区间范围,通过与 start 和 end 对应的索引编号的取值,即能够得到它对应的数值区间,而数值区间表示了此 MarkRange包含的数据范围。
一份 192 行的测试数据,主键为 String 类型的 ID,取值范围从 A000 ,A001,A002 … A192。MergeTree 索引粒度 index_granularity = 3,根据索引生成规则,primary.idx 文件内的索引数据如下图所示:
根据索引数据,MergeTree 会将此数据片段划分成192/3=64 个小的MarkRange,相邻的 MarkRange 步长为 1,所有 MarkRange 的最大步长为[A000,+inf]
对于索引的查询就是两个数值区间的交集判断,一个区间是基于主键的查询条件转换来的,另一个区间是与 MarkRange 对应的数值区间。
整个索引查询大约分为三个步骤:
where ID = 'A0003'
['A0003','A0003']
where ID > 'A0003'
['A0003',+inf]
where ID < 'A0003'
[-inf,'A0003']
['A0000',+inf]
开始。当查询条件是 where ID = ‘A0003’ 最终需要读取 [A000,A003] 和 [A003,A006] 两个区间的数据,他们对应MarkRange[0,2] 范围,而其他无用的区间都被剪掉了。
INDEX index_name expr TYPE index_type(...) GRANULARITY Granularity
index_granularity
:定义数据的粒度,数据通过索引粒度被标记成多个区间。
granularity
:定义汇聚信息汇总的粒度,定义了一个跳数索引能跳过多少index_granularity的区间数据。
以 minmax 类型索引为例介绍二级生成方式:
minmax 索引的聚合信息是在一个 index_granularity 区间内 granularity 的最小值与最大值。
一下图为例,设置 index_granularity = 8192 ,granularity = 3,则会将数据按照 index_granularity 划分为 N 份,MergeTree 会从第 0 份开始获取聚合信息。当获取到第三个分区时,汇总并生成第一个 minmax 索引,前 3 段minmax极值汇总后取值为 [1,9]
MergeTree 共支持 4 种跳数索引,分别是:minmax 、 set 、 ngrambf_v1 和 tokenbf_v1。
在一张表中可以同时声明多个跳数索引。
CREATE TABLE skip_test
(
`id` String,
`name` String,
`event_date` date,
INDEX a id TYPE minmax GRANULARITY 5,
INDEX b length(id) * 8 TYPE set(1000) GRANULARITY 5,
INDEX c (id, name) TYPE ngrambf_v1(3, 256, 2, 0) GRANULARITY 5,
INDEX d id TYPE tokenbf_v1(256, 2, 0) GRANULARITY 5
)
ENGINE = MergeTree
ORDER BY id
minmax索引 记录了一段数据内的最小值和最大值
索引的作用类似分区目录的 minmax 索引,能够快速跳过无用的数据区间。
sql
-- 示例
INDEX a id TYPE minmax GRANULARITY 5
-- minmax 索引会记录这段数据区间内 id 字段的最小值与最大值,极值计算设计 5 个 index_granularity 区间的数据
set 索引直接记录了声明字段或表达式的取值(唯一值,不重复)
完整形式为:set(max_rows),其中 max_rows 是一个阈值,表示在一个index_granularity 内,索引最多记录的数据行数
如果 max_rows = 0 ,表示无限制
-- 示例
INDEX b length(id) * 8 TYPE set(1000) GRANULARITY 5,
-- set 索引会记录 id 长度 * 8 的值,每个 index_granularity 最多记录 1000 条
ngrambf_v1索引记录的是数据短语的布隆过滤器
ngrambf_v1索引只支持 String 和FixedString 类型
ngrambf_v1索引只能提升in、notIn、like、equals和 notEquals 的查询性能
完整形式为:ngrambf_v1(n, size_of_bloom_filter_in_bytes, number_of_hash_functions, random_seed)
n:token 长度,根据 n 长度,将数据切割为 token 短语
size_of_bloom_filter_in_bytes:布隆过滤器的大小
number_of_hash_functions:布隆过滤器中使用 hash 函数的个数
random_seed:hash 函数的随机种子
-- 示例
INDEX c (id, name) TYPE ngrambf_v1(3, 256, 2, 0) GRANULARITY 5,
-- ngrambf_v1索引会按照3 的粒度,将数据切分成短语 token,
-- token 会经过两次 hash 函数再被写入
-- 布隆过滤器的大小是 256 字节
tokenbf_v1索引也是一种布隆过滤器索引,可以看做是ngrambf_v1索引的变种。
tokenbf_v1索引除了短语 token 处理的方法与ngrambf_v1索引不同,其他方面处理都是一样的。
tokenbf_v1索引会自动按照非字符的,数字的字符分割 token
sql
-- 示例
INDEX d id TYPE tokenbf_v1(256, 2, 0) GRANULARITY 5
-- token 会经过两次 hash 函数再被写入
-- 布隆过滤器的大小是 256 字节
MergeTree 中数据时案列存储的,具体到每个字段时也是独立存储的。
每个列字段都有一个与之对应的 [column_name].bin 文件,这些文件承载着数据最终的物理存储。
数据文件以分区目录的形式被组织存放,所以 [column_name].bin 文件只会保存当前分区内的这一部分数据。
按列存储的优势在于可以减少扫描的数据量
按列存储还可以优化压缩的效率,同一字段的类型相同且重复率更高。
MergeTree 将数据写入 bin 文件也是经过设计的:
数据会经过压缩,目前支持的压缩算法有:LZ4(默认)、ZSTD、Multiple和Delat几种算法。
数据会按照 order by 的声明排序。
数据以压缩块的形式被组织并写入 bin 文件中
压缩数据块由头信息和压缩数据两部分组成
头信息使用固定 9 个字节表示,分为三个部分
压缩算法(1 个 UInt8 整型表示,1 字节)
压缩后的数据大小(1 个 UInt32 整型表示,4 字节)
压缩前数据大小(1 个 UInt32 整型表示,4 字节)
.bin 数据文件是由多个数据压缩块组成的,每个数据压缩块的头信息又是由 CompressionMethod_CompressedSize_UncompressedSize组成的。
可以通过 clickhouse 提供的clickhouse-compressor工具查看某个.bin 数据文件的统计信息。
# 查看 data.bin 压缩数据统计信息
[root@node3 data]# clickhouse-compressor --stat db_merge/t_merge_tree_partition/202001_1_1_2/data.bin
2 12
6 16
8 18
# 每一行代表一个数据压缩块的头信息,分别代表着压缩后的数据大小与未压缩的数据大小
每个压缩数据块的体积,按照其压缩前的数据字节大小,被严格控制在 64KB~1MB 之间,分别由 min_compress_block_size (默认 65536) 与min_compress_block_size (默认:1048576)参数指定。
数据压缩块的大小和间隔(index_granularity)内的数据实际大小有关。
MergeTree 在写入数据过程中,会依照 index_granularity 粒度,按批次取数据并进行处理。设下一批未压缩数据大小为 x 字节,写入数据遵循如下规则:
一个 .bin 数据压缩文件,是由一个到多个压缩数据块组成,每个数据压缩块在 64KB 到 1MB 之间,多个数据块之间,按照写入顺序,首尾相连,紧密的排列在一起。
数据文件中写入压缩数据块的目的:
如果把MergeTree 比作一本书,那么这本书的 一级章节目录就是 primary.idx 一级索引,书中的文字就是 .bin 文件中的数据。一级章节目录与书中的文字的联系由 数据标记(.mrk)建立。
数据标记记录了两个非常重要的信息:
一级章节对应的页码信息
文字在某一页的起始位置
通过数据标记后,很容易就能找到快速的从一本书中找到你想看的那一页,并知道从哪行开始阅读。
数据标记是衔接一级章节与数据的桥梁,每本书的每个章节也都会有各自的桥梁。从上图能够发现数据标记的首个特征即数据标记与索引区间是对齐的,都按照index_granularity的粒度间隔。这样只需要简单通过索引区间的下标编号就能找到对应的数据标记。
为了能够与数据衔接,数据标记文件与 .bin 文件也是一一对应的。即每个列字段 [column].bin 文件都有一个与之对应的[column].mrk 数据标记文件,用于记录 .bin 文件中的偏移量信息。
一行标记文件使用一个元组表示,元组内包含两个整数的偏移量信息,分别表示:在此段数据区间内,对应的 .bin 压缩文件中,压缩数据块的起始偏移量,以及对该数据块解压后,其未压缩数据的起始偏移量。
每一行标记数据都表示了一个片段的数据(默认 8192 行)在 .bin 文件中的读取位置信息。标记数据与索引数据不同,不能常驻内存,而是使用 URL(最近最少使用)缓存策略加快其读取速度。
Merge 在读取数据时,必须通过标记数据的位置信息才能找到所需的数据。整个查询过程大致可以分为读取数据压缩块和读取数据两个步骤,下面图示说明了标记数据与压缩数据的对应关系。
字段了性为 UInt8,每行占用一个字节,index_granularity粒度为 8192,所以一个索引片段占用数据大小是 8192B,根据压缩块的生成规则,当单批次数据小于 64KB 时,继续获取下一批数据,直到累积到 64KB后,生成下一个数据压缩块。
可以看到标记文件中,每 8 个标记文件对应一个压缩块,(64KB=65536B, 1B*8192= 8192B,65536/8192=8)所以能够看到标记文件中,压缩文件中每 8 行的偏移量都是相同的,因此该 8 行数据都指向了同一个压缩块。
这 8 行数据中的解压缩文件偏移量按照 8192B 累加,当累加到 65536 后设置为 0,根据规则生成下一个压缩数据块。
分区、索引、标记数据和压缩数据都是 Merge 的重要组成部分,前面介绍过这不各部分的特点之后,现在需要将它们汇聚在一次做一个总结,下面从写入、查询。数据标记与压缩数据的对应关系三个部分介绍。
写入数据的第一步是生成分区目录,伴随着每一批数据的写入都会生成一个新的目录。
在后续的某个时间属于相同分区的目录会合并到一起。
接下来按照 index_granularity 的粒度 分别生成 primary.idx一级索引、如果声明了二级索引也会生成二级索引、每一个列字段对应的 .mrk 标记文件和 .bin 压缩数据文件。
下图示意了在经过层层过滤获取最小数据范围的过程
如果一条语句没有指定任何的 where 条件,或者指定了 where 条件但是没有匹配到任何索引,那么 Merge 就不能预先减小数据范围,在后续的查询中会扫描所有的分区目录,以及目录内的数据。虽然不能减少数据范围,但是 Merge 仍然能借助数据标记,以多线程的形式同时读取多个压缩数据块,以提升性能。
如下图所示,数据标记与压缩数据块存在三种关系
多对一
一对一
一对多
多个数据标记对应一个数据压缩块,当一个数据间隔内的未压缩数据不到 64KB 时会出现这种关系。
一个数据标记对应一个数据压缩块,当一个数据间隔内的未压缩数据大于 64KB 且小于 1MB 时会出现这种关系。
一个数据标记对应多个数据压缩块,当一个数据间隔内的未压缩数据大于 1MB 时会出现这种关系。
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/qq_21383435/article/details/122812947
内容来源于网络,如有侵权,请联系作者删除!