1、问题现象:ceph -s查看集群健康状态如下,25个pg发生数据不一致
2、ceph health detail查看如下图,这25个PG中的24个共同特点是都包含osd.24,首先处理pg 2.636,以这个为例,验证一下是否数据真的发生了不一致,如果只是遗留的warning,直接repaie就可以
3、登陆osd26所在存储节点(可以使用ceph osd find 26查看osd26在哪个存储节点上)
4、在osd26存储节点的vi /var/lib/ceph/var/log/ceph/ceph-osd.26.log日志中匹配以下字样的日志
5、已上图红色方框标注的一个数据块为例,验证这个数据块的三副本是不是与ceph health detail显示的结果一样,真的不一致吗?在osd26、osd77、osd24上均执行如下操作,找到该数据块,计算md5值