存储引擎原理简述

MARS3 概述

MARS3 是 YMatrix 自研的 LSM-Tree 架构存储引擎,采用行列混存架构,在传统 LSM 的基础上引入先行后列的双存储路径,既继承了行存对写入友好的特性,又保留了列存对分析查询的高性能,支持编码链压缩、数据更新删除、MVCC 机制、Brin 索引和行列混存等功能,能够同时满足 AP 和 TP 场景的需求。

MARS3 支持通过 UPDATE(Unique Mode 模式除外) 与 DELETE 子句实现数据更新与删除。

MARS3 支持增删列,支持 COPYpg_dump 操作。

内部原理

对于每个 MARS3 单表而言,其内部均采用 LSM Tree 结构存储。LSM Tree(Log Structured Merge Tree)是一种分层的,有序的,面向磁盘的数据结构。其核心思想是充分利用磁盘性能进行批量的顺序写操作,性能远高于随机写。

MARS3 内部原理图如下:

Run

MARS3 中存储的数据是有序的,一段连续有序的数据我们称为 Run。

Run 分成行存 Run列存 Run 两种。一种是为了能够高速写入,插入的数据会以行存 Run 的形式储存下来,一种是为了方便读取和压缩,把行存 Run 转换成列存 Run。

单个 Run 有大小上限:

  • 表级参数 max_runsize,在建表时用于指定单个 Run 的最大大小,最大 16384 MB
  • 默认为 4096 MB
  • 可以使用 matrixts_internal.mars3_files 函数用来查看 MARS3 表的扩展文件和增量文件。
select * from matrixts_internal.mars3_files('test');

主要包括 DATA、LINK、FSM、DELTA,如果表上有索引,还会有相应的 INDEX 文件。

  • DATA:主要的数据文件,用于存储用户数据。
  • FSM(Free Space Map):在 YMatrix 中,更新和删除操作并不是对原有的数据空间进行操作,而是通过对元组的多版本形式来实现的,因此会导致“过期数据”的问题,即当一个版本的元组对所有事物都不可见时,那么它就是过期的,此时其占用的空间是可以被释放的,FSM 文件用于追踪这些可用空间,并在需要的时候能够高效地分配出去。
  • LINK:在更新和删除操作中,用于维护 compact 中元组版本上下游关系的信息。
  • DELTA:用于存储删除信息,MARS3 的更新和删除操作都不是采用原地修改数据的方式,而是依靠 DELTA 文件 (XMAX 等删除信息) 和版本信息屏蔽掉了老数据,从而控制数据的可见性。
  • INDEXINDEX_1_TOAST:用于存储索引文件,当前 MARS3 支持 BRIN 和 BTREE 索引。

Level

MARS3 基于 LSM-TREE 组织数据,各个 Run 文件被组织到 Level 中,最大可有 10 层:L0,L1,L2......L9。

每一层的 Run 个数达到一定数目,或者同一层多个 Run 的大小总和达到阈值都会触发合并,合成一个 Run 后升级到更高层去;并且为了加快 Run 的升级,允许同一层中同时进行多个合并任务。

level

在 YMatrix 中,有一定数量的后台合并进程会周期性地检测各个表的状态,并执行合并操作。 YMatrix 提供了 matrixts_internal.mars3_level_stats 实用函数用于查看 MARS3 表中每个层级的状态。

 select * from matrixts_internal.mars3_level_stats('test') limit 10;

此操作对于评估表的健康状况非常有用,比如检查 Runs 是否按预期合并,是否有过多不可见的 Runs,以及运行次数 Run counts 是否在正常范围内。

按照经验法则:

  • level =0 时,若 runs 数大于 3,则状态不健康。
  • level = 1 时,若 runs 数大于 50,则状态不健康。
  • level > 1 时,若 runs 数大于 10,则状态不健康。

Range 与 Stripe

columnstore 都是直接写直接读,没有类似 Shared Buffers 这样的缓冲层,也没有页面刷新。 每 compress_threshold (默认为 1200) 行的数据,我们称为一个 Range;一个 Range 内的某一列数据 (包含 compress_threshold 行),称之为 Stripe

这一列数据如果特别大,那么 Stripe 会切成若干个 1MB 的 chunk,读的时候也不会一下读整个 compress_threshold 的数据出来。

RUN 
 └── range(按行切分,默认每 1200 行一个range)
      ├── column1 stripe(1200 个 datum)
      ├── column2 stripe(1200 个 datum)
      ├── column3 stripe(1200 个 datum)
      └── ...
  • range 是逻辑行窗口:每 1200 行组成一个 range,range 内部以列存格式存储,按列压缩
  • stripe 是物理列块:某一列在这个 1200 行范围内的连续存储块
  • datum 是最小值单元:一行某一列的值 (PG 内核原生单位)

行存和列存

  • MARS3 支持采用先行后列的存储方式存储数据,本质就是让数据在生命周期里先以更适合写入的形态进入系统,再在后台治理中逐步转为更适合分析的形态,从而实现“写入不断、分析不断”的常态运行。
    • 行存形态更偏写入与新鲜数据访问:它更容易快速接收新数据,也更适合小范围读取与明细回查 (尤其是数据刚写入、尚未完成整理时)。
    • 列存形态更偏扫描与聚合:当数据经过整理,列存能显著提升扫描吞吐与压缩效率,使大范围聚合、过滤查询更省资源。
  • 和直接把数据变成列存相比,有以下几种好处:
    • 对于高频、小批量数据来说写入速度更快
    • 不需要大量的内存进行数据缓存
    • 保证每个数据块元组数量的均匀

数据写入

  • 数据通过 INSERT 写入到内存中,再写入 L0 的 Run 中。
  • 为了适应不同场景的需求,在 YMatrix 中支持三种写入模式,由表级参数 prefer_load_moderowstore_size 共同决定,详见下文配置项。:
    1. Normal:表示正常模式,新写入数据先写到 L0 层的行存 Run 中,积累到 rowstore_size 之后,落至 L1 层的列存 Run,相对于 Bulk 模式会多一次 I/O,列存转换由同步变成了异步,适用于 I/O 能力充足且对延迟敏感的高频次小批量写入场景;
    2. Bulk:批量加载模式,适用于低频大批量写入场景,直接写至 L1 层的列存 Run,相对于 Normal 模式,减少了一次 I/O,列存转换由异步变成了同步,适用于 I/O 能力不足且对延迟不敏感的低频大批量的数据写入
    3. Single:数据直接插入到 rowstore,元组被直接放置在 Shared Buffers 中。

更多详细内容可以参照写路径总览

MARS3 索引

目前 MARS3 目前支持 BRIN 和 BTREE 索引。

  • BTREE 适合以“精确查找”为核心的事务型系统,通过行级指针实现快速定位;
  • BRIN 适合以“范围扫描”为主的大规模分析型系统,通过块级摘要显著减少无效 IO。

注意!
对于 MARS3 表,当前一个表上最多允许 16 个索引 (不管是否是同一个列,不管是 BRIN 还是 BTREE)。

BRIN 索引

  • MARS3 支持创建 mars3_brin 与 mars3_default_brin 索引,支持 Brin 索引的删除和新增

  • 每个 Run 在生成的时候都会创建自己独立的 Brin 索引文件。

  • Default Brin 是 MARS3 存储引擎的一项重要功能,在表级别提供了默认的 BRIN 索引支持,无需手动创建索引;与常规的 CREATE INDEX USING BRIN 不同 (只能索引扫描受益),顺序扫描也可以从 Default Brin 中受益,大幅提升查询效率,注意 Default Brin 不会占用索引槽的数量,即就算有 Default Brin,也依旧可以创建最多 16 个索引。

    mars3_brin mars3_default_brin
    创建方式 需要手动创建 自动创建,无需手动操作
    查询支持 仅支持 IndexScan 时过滤数据 支持Indexscan、SeqScan 时过滤数据
    技术版本 brinV2 brinV2
    参数化查询 支持参数化查询 (param-IndexScan) 支持参数化查询 (param-SeqScan)

BTREE 索引

BTREE 索引是一种基于平衡多叉树结构的通用型索引,通过按键值有序组织索引节点,实现对单行或小范围数据的快速精确定位,查询复杂度稳定在 O(logN),既支持等值查询,也高效支持范围扫描与排序操作。由于其不依赖数据物理分布特性,BTREE 在高并发事务处理场景下具备极强的稳定性,是主键、唯一约束及高选择性查询的默认首选索引类型,但是不适用于低选择性列和大表的宽范围扫描。

mars3btree 是 MARS3 存储引擎里专用的 B-tree 实现,索引的内部页仍是标准 B-tree 页面,mars3btree 支持两种类型:

  • NORMAL:标准行式 B-tree (用于RowStore),不压缩
  • COMPRESSED:列式压缩 B-tree (用于ColumnStore),压缩

排序键

排序键是决定引擎能否发挥扫描效率、能否长期稳定运行的核心设计点。有序数据 + 可靠的块级元数据可以大幅提升扫描效率,排序键选得好,数据在 Run 内以及更高层级中会呈现更强的局部性,查询的过滤条件更容易命中连续范围,跳读更有效;排序键选得不合理,数据分布会更“散”,过滤条件无法收敛扫描范围,系统会表现为“看似有索引/有元数据,但读起来还是像全扫”。

  • MARS3 中,数据是有序存储的。在创建表时,需要通过指定排序列(可以多列)的方式指定排序的顺序。这个排序顺序涉及的字段,称为排序键。
  • 排序键只能指定一次,不能修改,不能新增,不能删除
  • 为了最大化利用顺序性带来的性能提升,最好选择经常使用且过滤效果好的字段作为排序键。比如设备监控表,可以采用事件时间戳和设备 ID 作为排序键。
  • 如果排序键是文本类型,且能接受按照字节顺序排序,那么在这个列采用 COLLATE C 能够加速排序。

更多有关排序建的详细内容及选型原则可查看排序键与数据局部性

压缩

  • 默认情况下,MARS3 所有的数据列,默认采用 lz4 进行压缩, 更多压缩类型可参考使用压缩章节。
  • 支持手动指定编码链压缩算法,可以整个表指定,也可以单个列指定。

更多有关压缩对性能影响可参考压缩与性能影响

更新和删除

  • MARS3 通过 DELETE 进行删除,删除会在对应 Run 的 Delta 文件中进行记录,在进行 Run 合并的时候真正把数据删除。
  • MARS3 通过 UPDATE 进行更新,更新会先删除原本数据,再重新插入一条新数据。
  • MARS3 的 Unique Mode 模式支持DELETE。更新无需显式使用 UPDATE 子句,直接执行 INSERT 子句即可自动完成操作。如果想要更新某个 Unique Key(即建表时指定的排序键所对应的具体键值)对应的某条数据,直接插入一条相同 Unique Key 的新数据即可。例如 CREATE TABLE mars3_t(c1 int NOT NULL, c2 int) USING MARS3 WITH (uniquemode=true) ORDER BY (c1, c2);,其中 Unique Key 即为 (c1, c2)

注意!
如开启 Unique Mode,则 ORDER BY 子句的第一个字段在定义时需要添加 NOT NULL 约束。

更多技术细节可查看更新与删除

合并和回收

  • Run 中如果数据范围有重叠,则会造成读放大,降低查询效率。因此,当磁盘上的 Run 数量超过一定值时,MARS3 会将磁盘上的多个 Run 进行归并排序,最后输出为一个 Run。这个过程称为合并
  • 合并过程中,数据依然可读可写:
    • 读数据时,只会读合并的输入文件
    • 写数据时,合并过程不会读新写入的数据
    • 读,写,合并三者之间不会互相阻塞
  • 合并完成后,参加合并的 Run 会根据事务 ID 自动决定何时不再被需要,并且标记为可回收状态

更多技术细节可查看后台治理

支持 MVCC 机制

  • MVCC(Multiversion Concurrency Control)机制通常被称为多版本管理。它的核心是对数据的更新、修改和删除处理
  • 多版本管理中,数据的更新和删除并不一定会在原数据上进行修改,而是需要创立一个新的版本,把原数据标记为失效的数据,再在新版本上增加新数据,数据具有多个版本。每个数据带有一个版本信息,且历史版本均会被保存。
  • MARS3 的更新和删除操作都不是采用原地修改数据的方式,而是依靠 Delta 文件和版本信息屏蔽掉了老数据,从而控制数据的可见性。
  • 注意:持续进行更新或删除同一个 Run 的数据会让此 Run 的 Delta 文件占用的物理空间持续增加,但当当前 Run 的所有数据都被删除之后就不会再增加了。而且 MARS3 的合并操作可以自动清除已 Dead 的数据,当然你也可以有计划地定期使用 VACUUM 清理已 Dead 的数据。

支持 bucket

MARS3 Bucket 是 YMatrix 数据库针对 MPP 架构中并行扫描场景设计的存储层并行执行优化机制 ,通过在数据落盘阶段就按分布键哈希组织为多个逻辑桶,确保并行扫描时相同分布键的数据由同一工作进程处理,从而保留数据分布语义(locus),避免不必要的数据重分布(Motion),实现从"扫得更快"到"算得更本地"的性能跃迁。

create table foo (c1 int, c2 int) using mars3 with (mars3options='nbuckets = 2').

nbuckets 有效值: 1 ~ 128,默认值为 1,说明只有 1 个桶,即不进行分桶。

更多技术细节可查看 MARS3 Bucket 技术详解

MARS3 使用

创建 MARS3 表

在已创建 matrixts 扩展的前提下,最简洁的建表方式,只需要在 CREATE TABLE 语句加上 USING 子句,并附加 ORDER BY 子句。延伸示例请见表设计最佳实践

=# CREATE TABLE metrics (
    ts              timestamp,
    dev_id          bigint,
    power           float,
    speed           float,
    message         text
) USING MARS3 
  ORDER BY (dev_id,ts);

注意!
MARS3 表支持创建 Brin 索引,但非必须创建;
从 6.3.0 版本开始,MARS3 表建表时去除必须使用 ORDER BY 子句制定排序键的使用限制。


配置项

注意!
此部分配置项为表级配置项,只能在创建数据表时使用 WITH(mars3options='a=1,b=2,...') 子句配置,适用于单表,且一旦配置便无法修改。更多信息请见 数据表配置参数

以下参数用于调节 L0 层 Run 的大小,也可间接控制 L1 层之上的 Run 大小。

参数 单位 默认值 取值范围 描述
rowstore_size MB 64 8 ~ 1024 用于控制 L0 Run 何时切换。当数据大小超过该值,将会切换下一个 Run

以下参数用于设置压缩阈值,可用于调节压缩效果和改善读取效率,如果配置过低压缩效果不明显,配置过高消耗内存较多。

参数 单位 默认值 取值范围 描述
compress_threshold 元组 1200 1 ~ 100000 压缩阈值。用于控制单表每一列的多少元组(Tuple)进行一次压缩,是同一个单元中压缩的 Tuple 数上限

以下参数用于指定数据在 MARS3 中的加载模式。

参数 单位 默认值 取值范围 描述
prefer_load_mode normal normal / bulk / Single 数据加载模式。normal 表示正常模式,新写入数据先写到 L0 层的行存 Run 中,积累到 rowstore_size 之后,落至 L1 层的列存 Run,相对于 bulk 模式会多一次 I/O,列存转换由同步变成了异步,但适用于 I/O 能力充足且对延迟敏感的高频次小批量写入场景;bulk 表示批量加载模式,适用于低频大批量写入场景,直接写至 L1 层的列存 Run,相对于 normal 模式,减少了一次 I/O,列存转换由异步变成了同步,适用于 I/O 能力不足且对延迟不敏感的低频大批量的数据写入;Single:数据直接插入到 rowstore,元组被直接放置在 Shared Buffers

以下参数用于指定 Level 尺寸的放大系数。

参数 单位 默认值 取值范围 描述
level_size_amplifier 8 1 ~ 1000 Level 尺寸的放大系数。Level 触发合并操作的阈值,计算方式为:rowstore_size * (level_size_amplifier ^ level)。其值越大,读速越慢,写速越快。可以根据具体场景信息(写多读少/读多写少、压缩率等)来决定具体值。注意:确保每个 Level 的 run 数量不要过多,否则会影响查询性能,甚至阻止新数据插入

以下参数用于指定 bucket 的个数。

参数 单位 默认值 取值范围 描述
nbuckets 1 1 ~ 128 分桶数量。用于控制 bucket 个数,以更好的实现查询效果。最佳实践请参考表设计与数据分布最佳实践中的“MARS3 Bucket 最佳实践”章节。

配置示例:

=# CREATE EXTENSION matrixts;
CREATE TABLE t(
    time timestamp with time zone,
    tag_id int,
    i4 int4,
    i8 int8
)
USING MARS3
WITH (compresstype=zstd, compresslevel=3,compress_threshold=1200,
        mars3options='rowstore_size=64,prefer_load_mode=normal,level_size_amplifier=8,nbuckets=2')
DISTRIBUTED BY (tag_id)
PARTITION BY RANGE (time)
(
    START ('2026-02-01 00:00:00+08')
    END   ('2026-03-01 00:00:00+08')
    EVERY (INTERVAL '1 day')
)
ORDER BY (time, tag_id);

工具函数

  • matrixts_internal.mars3_level_stats:查看 MARS3 表每一个 Level 层级的状态,据此可以判断 MARS3 表的健康度,例如 Run 有没有按预期的进行合并,其个数是否符合预期等;
  • matrixts_internal.mars3_files:查看 MARS3 表文件状态,可以用来查看 MARS3 表的扩展文件和增量文件(Data 文件、Delta 文件、Index 文件等)是不是符合预期;
  • matrixts_internal.mars3_info_brin:查看 MARS3 表某个 Brin 索引的状态。


HEAP 概述

HEAP 是 YMatrix 的默认存储引擎,又称作堆存储,从 PostgreSQL 继承而来,只支持行存储,不支持列存储及压缩。它基于 MVCC 机制实现,适用于有大量更新、删除需求的场景。

使用 MVCC 机制

在 MVCC 机制影响下,HEAP 表在处理更新和删除操作时,并没有真正删除数据,而只是依靠数据版本信息屏蔽了老的数据(控制了数据的可见性)。因此,HEAP 表大量进行更新或删除操作,占用的物理空间会不断增大,需要你有计划地定期使用 VACUUM 清理老数据。

HEAP 使用

你可以运用以下 SQL 语句在 YMatrix 中创建一个 HEAP 表。

=# CREATE TABLE disk_heap(
    time timestamp with time zone,
    tag_id int,
    read float,
    write float
)
DISTRIBUTED BY (tag_id);


AORO 概述

AORO 是一种面向分析型数据库的存储组织范式,指数据以仅追加(append-only)方式按行连续写入,不支持原地更新或删除,通过时间戳或事务 ID 维护版本,兼顾写入吞吐、查询效率与 MVCC 一致性。 AORO 支持行存储。

对于有大量更新及删除操作的 AO 表,同样需要计划地定期清理老数据,不过在 AO 表中,清理数据工具 vacuum 需要对 bitmap 进行重置并压缩物理文件,因此通常比 HEAP 进度慢。

注意!
存储引擎详细信息、使用及最佳实践请见表设计与数据分布最佳实践