故障恢复
YMatrix 是一款高可用的分布式数据库系统,支持在节点宕机后进行故障恢复。高可用的前提是冗余部署,所以主节点(Master)需要有备用节点(Standby)作为备份;对于数据节点(Segment),Primary 为主节点,需要有与其对应的镜像节点(Mirror)。
一个高可用系统的部署图如下所示:
当集群中节点出现故障,你可以通过查询 gp_segment_configuration 表来获取节点状态信息。示例集群 Master 为 mdw,Standby 为 smdw,Segment 为 sdw 1 与 sdw 2,二者各有一个 Mirror。具体如下:
postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
dbid | content | role | preferred_role | mode | status | port | hostname | address | datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
1 | -1 | p | p | n | u | 5432 | mdw | mdw | /mxdata/master/mxseg-1
6 | -1 | m | m | s | u | 5432 | smdw | smdw | /mxdata/standby/mxseg-1
2 | 0 | p | p | s | u | 6000 | sdw1 | sdw1 | /mxdata/primary/mxseg0
4 | 0 | m | m | s | u | 6001 | sdw2 | sdw2 | /mxdata/mirror/mxseg0
3 | 1 | p | p | s | u | 6000 | sdw2 | sdw2 | /mxdata/primary/mxseg1
5 | 1 | m | m | s | u | 6001 | sdw1 | sdw1 | /mxdata/mirror/mxseg1
(6 rows)
列描述如下:
列名 | 描述 |
---|---|
dbid | 节点 ID,从 1 递增 |
content | 主从节点对编号,Master 和 Standby 为 -1 Segment 节点对从 0 递增 |
role | 节点角色,p 为主,m 为从 |
preferred_role | 节点初始角色 |
mode | 同步情况。s 代表 synchronized ,已同步;n 代表 not synchronized,未同步 |
status | 节点状态,u 为 up,存活,d 为 down,宕机 |
port | 端口 |
hostname | 主机名 |
address | 主机地址 |
datadir | 数据目录 |
从部署的情况可以看到:
- Master 和 Standby 分别部署在不同独立节点上
- 每个 Segment 的主和从部署在不同节点上
- Segment 的主节点是分散部署的
如上部署方式,目的就是避免单主机故障导致系统不可用,同时分散集群压力。
下文将简单讲述 YMatrix 集群的自动运维原理及不同作用节点的宕机场景解决。
1 原理
YMatrix 支持集群状态服务(Cluster Service),用以运维自动化。此服务主要包含故障自动转移(Failover)及以 mxrecover 工具为支撑的故障自动恢复(Failback)两个功能。利用这两个功能,可以实现节点故障的完整恢复流程。
1.1 故障自动转移(Failover)
故障自动转移指自动运维体系中,通过调取 etcd 集群的节点状态诊断信息,切换主备节点从而转移故障的机制。etcd 集群是 YMatrix 集群状态服务中的核心组件,负责管理所有节点的状态信息。当集群中任一节点出现故障时,数据库系统会自动进行节点故障转移,无需人工干预。
1.2 故障自动恢复(Failback)
故障自动转移完成后,相应节点对仅存 Primary / Master,没有健康的备用节点。如果再出现故障,则无法恢复。所以,需要使用 mxrecover 工具为新的 Primary / Master 生成健康的 Mirror / Standby 节点。
mxrecover 工具有如下作用:
- 将宕机的 Mirror / Standby 节点重新激活
- 为提升成 Primary / Master 的节点,生成新的 Mirror / Standby
- 完成节点角色的重分布,使其与初始角色一致
注意!
mxrecover 工具的详细使用方法请见 mxrecover。
2 不同节点故障场景
2.1 Mirror / Standby 宕机
当系统发现 Mirror / Standby 宕机,会在 gp_segment_configuration 表里标记节点状态为 d
。
注意!
Mirror 宕机并不会导致集群不可用,因此系统不会重新激活 Mirror。
激活 Mirror 需要使用mxrecover
工具,详见下文。
从如下查询可以看到,当 dbid = 4 的 Mirror 宕机后,其状态变为 d
。
postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
dbid | content | role | preferred_role | mode | status | port | hostname | address | datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
1 | -1 | p | p | n | u | 5432 | mdw | mdw | /mxdata/master/mxseg-1
6 | -1 | m | m | s | u | 5432 | smdw | smdw | /mxdata/standby/mxseg-1
2 | 0 | p | p | n | u | 6000 | sdw1 | sdw1 | /mxdata/primary/mxseg0
4 | 0 | m | m | n | d | 6001 | sdw2 | sdw2 | /mxdata/mirror/mxseg0
3 | 1 | p | p | s | u | 6000 | sdw2 | sdw2 | /mxdata/primary/mxseg1
5 | 1 | m | m | s | u | 6001 | sdw1 | sdw1 | /mxdata/mirror/mxseg1
(6 rows)
此时,如果距离宕机时间间隔较短,且宕机节点数据量规模不算很大,建议你先尝试增量恢复。当 mxrecover
命令后没有参数或者只有 -c
时,即使用增量恢复模式。如果增量恢复失败,则需要通过复制全量数据激活宕机节点,即使用 mxrecover -F
命令。
2.2 Primary / Master 节点宕机
当系统发现 Primary 宕机,则会自动提升对应的 Mirror 为 Primary。通过查询 gp_segment_configuration 表可以看到,节点的角色发生了变化,状态也随之改变。
从如下表可以知道,dbid = 2 的 Primary 宕机后,其对应的 dbid = 4 的 Mirror 被提升成 Primary。content = 0 的 Segment 对,role 与 preferred_role 已不相等,说明角色已经不是初始角色,节点状态已经发生了的变化。
postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
dbid | content | role | preferred_role | mode | status | port | hostname | address | datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
1 | -1 | p | p | n | u | 5432 | mdw | mdw | /mxdata/master/mxseg-1
6 | -1 | m | m | s | u | 5432 | smdw | smdw | /mxdata/standby/mxseg-1
2 | 0 | m | p | n | d | 6000 | sdw1 | sdw1 | /mxdata/primary/mxseg0
4 | 0 | p | m | n | u | 6001 | sdw2 | sdw2 | /mxdata/mirror/mxseg0
3 | 1 | p | p | s | u | 6000 | sdw2 | sdw2 | /mxdata/primary/mxseg1
5 | 1 | m | m | s | u | 6001 | sdw1 | sdw1 | /mxdata/mirror/mxseg1
(6 rows)
除系统表外,图形化界面也可直接检测到集群节点的健康状态。
下图表示主节点(Master)故障,已完成主备切换。方框左侧红色表示此节点故障,黄色表示此节点已完成故障转移。
下面两个图则表示数据节点(Segment)故障,已完成主从切换。
1.2.1 激活宕机 Mirror / Standby
在系统自动完成 Mirror / Standby 的提升后,执行 mxrecover
可以为新的 Primary / Master 生成对应的 Mirror / Standby,并全量或增量同步节点数据以恢复宕机节点。 直接执行 mxrecover
,即可激活宕机 Mirror / Standby,增量恢复数据。如上文所述,如需全量恢复,则需要使用 mxrecover -F
命令强制执行。
[mxadmin@mdw ~]$ mxrecover
1.2.2 节点角色重分布
虽然 mxrecover
为新的 Primary 节点重新生成了 Mirror,但是也带来了一个新问题,Primary 节点分布关系发生了变化,两个 Primary 节点都分布在了 sdw2
上。这样会导致主机资源分配不均匀,sdw2 也会承载更多的负载。
所以,要做主从的重分布,这也体现了 preferred_role
列的作用,记录初始角色。
重分布命令如下:
[mxadmin@mdw ~]$ mxrecover -r
当执行了 mxrecover -r
后,再查询数据库:
mxadmin=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
dbid | content | role | preferred_role | mode | status | port | hostname | address | datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
1 | -1 | p | p | n | u | 5432 | mdw | mdw | /mxdata/master/mxseg-1
6 | -1 | m | m | s | u | 5432 | smdw | smdw | /mxdata/standby/mxseg-1
2 | 0 | p | p | n | u | 6000 | sdw1 | sdw1 | /mxdata/primary/mxseg0
4 | 0 | m | m | n | u | 6001 | sdw2 | sdw2 | /mxdata/mirror/mxseg0
3 | 1 | p | p | s | u | 6000 | sdw2 | sdw2 | /mxdata/primary/mxseg1
5 | 1 | m | m | s | u | 6001 | sdw1 | sdw1 | /mxdata/mirror/mxseg1
(6 rows)
可以看到,content = 0 的 Segment 节点对的角色又恢复到了初始状态。