故障恢复

YMatrix 是一款高可用的分布式数据库系统,支持在节点宕机后进行故障恢复。高可用的前提是冗余部署,所以主节点(Master)需要有备用节点(Standby)作为备份;对于数据节点(Segment),Primary 为主节点,需要有与其对应的镜像节点(Mirror)。
一个高可用系统的部署图如下所示:

HA

当集群中节点出现故障,你可以通过查询 gp_segment_configuration 表来获取节点状态信息。示例集群 Master 为 mdw,Standby 为 smdw,Segment 为 sdw 1 与 sdw 2,二者各有一个 Mirror。具体如下:

postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
 dbid | content | role | preferred_role | mode | status | port | hostname | address |         datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
    1 |      -1 | p    | p              | n    | u      | 5432 | mdw      | mdw     | /mxdata/master/mxseg-1
    6 |      -1 | m    | m              | s    | u      | 5432 | smdw     | smdw    | /mxdata/standby/mxseg-1
    2 |       0 | p    | p              | s    | u      | 6000 | sdw1     | sdw1    | /mxdata/primary/mxseg0
    4 |       0 | m    | m              | s    | u      | 6001 | sdw2     | sdw2    | /mxdata/mirror/mxseg0
    3 |       1 | p    | p              | s    | u      | 6000 | sdw2     | sdw2    | /mxdata/primary/mxseg1
    5 |       1 | m    | m              | s    | u      | 6001 | sdw1     | sdw1    | /mxdata/mirror/mxseg1
(6 rows)

列描述如下:

列名 描述
dbid 节点 ID,从 1 递增
content 主从节点对编号,Master 和 Standby 为 -1
Segment 节点对从 0 递增
role 节点角色,p 为主,m 为从
preferred_role 节点初始角色
mode 同步情况。s 代表 synchronized ,已同步;n 代表 not synchronized,未同步
status 节点状态,u 为 up,存活,d 为 down,宕机
port 端口
hostname 主机名
address 主机地址
datadir 数据目录

从部署的情况可以看到:

  1. Master 和 Standby 分别部署在不同独立节点上
  2. 每个 Segment 的主和从部署在不同节点上
  3. Segment 的主节点是分散部署的

如上部署方式,目的就是避免单主机故障导致系统不可用,同时分散集群压力。
下文将简单讲述 YMatrix 集群的自动运维原理及不同作用节点的宕机场景解决。

1 原理

YMatrix 支持集群状态服务(Cluster Service),用以运维自动化。此服务主要包含故障自动转移(Failover)及以 mxrecover 工具为支撑的故障自动恢复(Failback)两个功能。利用这两个功能,可以实现节点故障的完整恢复流程。

1.1 故障自动转移(Failover)

故障自动转移指自动运维体系中,通过调取 etcd 集群的节点状态诊断信息,切换主备节点从而转移故障的机制。etcd 集群是 YMatrix 集群状态服务中的核心组件,负责管理所有节点的状态信息。当集群中任一节点出现故障时,数据库系统会自动进行节点故障转移,无需人工干预。

1.2 故障自动恢复(Failback)

故障自动转移完成后,相应节点对仅存 Primary / Master,没有健康的备用节点。如果再出现故障,则无法恢复。所以,需要使用 mxrecover 工具为新的 Primary / Master 生成健康的 Mirror / Standby 节点。

mxrecover 工具有如下作用:

  • 将宕机的 Mirror / Standby 节点重新激活
  • 为提升成 Primary / Master 的节点,生成新的 Mirror / Standby
  • 完成节点角色的重分布,使其与初始角色一致

注意!
mxrecover 工具的详细使用方法请见 mxrecover

2 不同节点故障场景

2.1 Mirror / Standby 宕机

当系统发现 Mirror / Standby 宕机,会在 gp_segment_configuration 表里标记节点状态为 d

注意!
Mirror 宕机并不会导致集群不可用,因此系统不会重新激活 Mirror。
激活 Mirror 需要使用 mxrecover 工具,详见下文。

从如下查询可以看到,当 dbid = 4 的 Mirror 宕机后,其状态变为 d

postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
 dbid | content | role | preferred_role | mode | status | port | hostname | address |         datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
    1 |      -1 | p    | p              | n    | u      | 5432 | mdw      | mdw     | /mxdata/master/mxseg-1
    6 |      -1 | m    | m              | s    | u      | 5432 | smdw     | smdw    | /mxdata/standby/mxseg-1
    2 |       0 | p    | p              | n    | u      | 6000 | sdw1     | sdw1    | /mxdata/primary/mxseg0
    4 |       0 | m    | m              | n    | d      | 6001 | sdw2     | sdw2    | /mxdata/mirror/mxseg0
    3 |       1 | p    | p              | s    | u      | 6000 | sdw2     | sdw2    | /mxdata/primary/mxseg1
    5 |       1 | m    | m              | s    | u      | 6001 | sdw1     | sdw1    | /mxdata/mirror/mxseg1
(6 rows)

此时,如果距离宕机时间间隔较短,且宕机节点数据量规模不算很大,建议你先尝试增量恢复。当 mxrecover 命令后没有参数或者只有 -c 时,即使用增量恢复模式。如果增量恢复失败,则需要通过复制全量数据激活宕机节点,即使用 mxrecover -F 命令。

2.2 Primary / Master 节点宕机

当系统发现 Primary 宕机,则会自动提升对应的 Mirror 为 Primary。通过查询 gp_segment_configuration 表可以看到,节点的角色发生了变化,状态也随之改变。

从如下表可以知道,dbid = 2 的 Primary 宕机后,其对应的 dbid = 4 的 Mirror 被提升成 Primary。content = 0 的 Segment 对,role 与 preferred_role 已不相等,说明角色已经不是初始角色,节点状态已经发生了的变化。

postgres=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
 dbid | content | role | preferred_role | mode | status | port | hostname | address |         datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
    1 |      -1 | p    | p              | n    | u      | 5432 | mdw      | mdw     | /mxdata/master/mxseg-1
    6 |      -1 | m    | m              | s    | u      | 5432 | smdw     | smdw    | /mxdata/standby/mxseg-1
    2 |       0 | m    | p              | n    | d      | 6000 | sdw1     | sdw1    | /mxdata/primary/mxseg0
    4 |       0 | p    | m              | n    | u      | 6001 | sdw2     | sdw2    | /mxdata/mirror/mxseg0
    3 |       1 | p    | p              | s    | u      | 6000 | sdw2     | sdw2    | /mxdata/primary/mxseg1
    5 |       1 | m    | m              | s    | u      | 6001 | sdw1     | sdw1    | /mxdata/mirror/mxseg1
(6 rows)

除系统表外,图形化界面也可直接检测到集群节点的健康状态。
下图表示主节点(Master)故障,已完成主备切换。方框左侧红色表示此节点故障,黄色表示此节点已完成故障转移。

下面两个图则表示数据节点(Segment)故障,已完成主从切换。

1.2.1 激活宕机 Mirror / Standby

在系统自动完成 Mirror / Standby 的提升后,执行 mxrecover 可以为新的 Primary / Master 生成对应的 Mirror / Standby,并全量或增量同步节点数据以恢复宕机节点。 直接执行 mxrecover,即可激活宕机 Mirror / Standby,增量恢复数据。如上文所述,如需全量恢复,则需要使用 mxrecover -F 命令强制执行。

[mxadmin@mdw ~]$ mxrecover

1.2.2 节点角色重分布

虽然 mxrecover 为新的 Primary 节点重新生成了 Mirror,但是也带来了一个新问题,Primary 节点分布关系发生了变化,两个 Primary 节点都分布在了 sdw2 上。这样会导致主机资源分配不均匀,sdw2 也会承载更多的负载。

所以,要做主从的重分布,这也体现了 preferred_role 列的作用,记录初始角色。

重分布命令如下:

[mxadmin@mdw ~]$ mxrecover -r

当执行了 mxrecover -r 后,再查询数据库:

mxadmin=# SELECT * FROM gp_segment_configuration ORDER BY content,dbid;
 dbid | content | role | preferred_role | mode | status | port | hostname | address |         datadir
------+---------+------+----------------+------+--------+------+----------+---------+-------------------------
    1 |      -1 | p    | p              | n    | u      | 5432 | mdw      | mdw     | /mxdata/master/mxseg-1
    6 |      -1 | m    | m              | s    | u      | 5432 | smdw     | smdw    | /mxdata/standby/mxseg-1
    2 |       0 | p    | p              | n    | u      | 6000 | sdw1     | sdw1    | /mxdata/primary/mxseg0
    4 |       0 | m    | m              | n    | u      | 6001 | sdw2     | sdw2    | /mxdata/mirror/mxseg0
    3 |       1 | p    | p              | s    | u      | 6000 | sdw2     | sdw2    | /mxdata/primary/mxseg1
    5 |       1 | m    | m              | s    | u      | 6001 | sdw1     | sdw1    | /mxdata/mirror/mxseg1
(6 rows)

可以看到,content = 0 的 Segment 节点对的角色又恢复到了初始状态。