ceph存储集群发生scrub error后PG验证和repair的方法

当Ceph集群出现scrub error后,通过详细分析日志和数据块校验,确认数据一致性。针对不同PG,定位问题osd,进行故障排查。如osd24、osd43等,通过比较三副本md5值,确定数据是否一致。对于读取不完整的问题,检查osd日志并执行`ceph pg repair`命令修复。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、问题现象:ceph -s查看集群健康状态如下,25个pg发生数据不一致


2、ceph health detail查看如下图,这25个PG中的24个共同特点是都包含osd.24,首先处理pg 2.636,以这个为例,验证一下是否数据真的发生了不一致,如果只是遗留的warning,直接repaie就可以


3、登陆osd26所在存储节点(可以使用ceph osd find 26查看osd26在哪个存储节点上)

4、osd26存储节点的vi /var/lib/ceph/var/log/ceph/ceph-osd.26.log日志中匹配以下字样的日志


5、已上图红色方框标注的一个数据块为例,验证这个数据块的三副本是不是与ceph health detail显示的结果一样,真的不一致吗?在osd26、osd77、osd24上均执行如下操作,找到该数据块,计算md5值

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值