提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
Greenplum DB 6.17.7 1master+1standby+4segment
segment恢复测试案例
提示:以下是本篇文章正文内容,下面案例可供参考
一、模拟segment down
查看集群信息。
gpstate -m
gpstate -f
模拟主机sdw4主机重启故障。
[root@sdw4 ~]# reboot
master 端查看集群信息。
gpstate -m
gpstate -e
gpstate -Q
此时可以发现节点四中的segment处于failed状态。以及节点1的mirror segment处于primary状态。
二、恢复segment节点
1.产生recover 文件
[gpadmin@mdw ~]$ gprecoverseg -o ./recover328
[gpadmin@mdw ~]$ cat ./recover328
生成指定文件名,该文件输出信息为当前不可用主机中segment以及他们默认的recovery路径
2.开始recovery segment
gprecoverseg -i ./recover328
等待处理时间。
如上已经做完recover。
在segment recover后,发现segment实例没有回归到系统初始正确的角色,这可能会使系统处于潜在的不平衡状态,因为某些segment主机的活动segment可能比最高系统性能的最佳segment多。此选项通过将主segment和镜像segment返回到它们的首选角色以达到重新平衡它们。在运行gprecoverseg-r之前,所有段都必须有效并同步。如果有任何正在进行的查询,它们将被取消并回滚。
gprecoverseg -r
等待处理完时间。
gpstate -m
检查segment状态
gpstate -e
恢复完成,所有节点均正确正常工作。
总结
主要命令
gpstate -m
gpstate -f
gprecoverseg