ceph---一次维护记录

在一篇关于分布式存储系统的博客中,作者遇到了Ceph集群状态警告的问题。他们发现100个block集中在已不在集群内的一个OSD上。进一步调查揭示了3个OSD添加错误,这些OSD分布在两台机器上。通过删除错误的OSD,警告得以消除,集群状态恢复正常。此博客详细记录了故障诊断和解决过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一套ceph集群状态显示警告,看集群状态,有100个block集中在一个osd上,但是查找这个osd,osd已经不再集群内,后来在查找这个问题的过程中,发现是有3个osd添加存在问题,这三个osd对应存在两台机器上,删除错误osd后,警告消失,集群状态恢复

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值