在k8s中运行的rook一直还好。但突然出现如下错误
[rook@rook-ceph-tools-5db564c5c5-r899b /]$ ceph health detail
HEALTH_WARN 1 pools have many more objects per pg than average
先尝试通过扩大pg数量解决
# 关闭自动扩展
ceph osd pool set myfs-data0 pg_autoscale_mode off
# 增加pg及pgp数量
ceph osd pool set myfs-data0 pg_num 128
ceph osd pool set myfs-data0 pgp_num 128
# 查看df结果不满意,问题依旧
[rook@rook-ceph-tools-5db564c5c5-r899b /]$ ceph df
--- RAW STORAGE ---
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 1.8 TiB 1.4 TiB 440 GiB 443 GiB 23.78
ssd 7.3 TiB 5.5 TiB 1.7 TiB 1.8 TiB 24.28
TOTAL 9.1 TiB 6.9 TiB 2.2 TiB 2.2 TiB 24.18
--- POOLS ---
POOL ID STORED OBJECTS USED %USED MAX AVAIL
device_health_metrics 1 1.3 MiB 13 4.0 MiB 0 1.8 TiB
replicapool 2 626 GiB 162.40k 1.8 TiB 24.91 1.8 TiB
myfs-metadata 4 1.1 GiB 1.28k 3.4 GiB 0.06 1.8 TiB
myfs-data0

博客讲述了在Kubernetes(k8s)环境中遇到Ceph存储池警告的问题,即某些pool的对象分布超过了平均值。作者首先尝试通过增加PG和PGP数量来解决,但未成功。然后,通过查询GitLab中的解决方案,调整了`mon_pg_warn_max_object_skew`配置,最终解决了问题,使系统恢复到健康状态。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



