1. 获取OSD容量
[root@node-3 ~]# ceph osd df
ID CLASS WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR PGS
1 hdd 0.12303 1.00000 106GiB 14.6GiB 91.4GiB 13.81 0.73 256
3 hdd 0.12303 1.00000 106GiB 14.6GiB 91.4GiB 13.81 0.73 256
5 hdd 0.12303 1.00000 106GiB 14.6GiB 91.4GiB 13.81 0.73 256
0 ssd 0.21483 1.00000 200GiB 43.4GiB 157GiB 21.72 1.14 208
2 ssd 0.21483 1.00000 200GiB 43.4GiB 157GiB 21.72 1.14 208
4 ssd 0.21483 1.00000 200GiB 43.4GiB 157GiB 21.72 1.14 208
TOTAL 918GiB 174GiB 744GiB 18.98
MIN/MAX VAR: 0.73/1.14 STDDEV: 4.14
2. 计算每个OSD的max avail
计算每个OSD的max avail 值,取最小的一个,例如,获取OSD ID 1的max avail的值
(1) OSD ID 1的权重:0.12303/(0.12303 * 3 + 0.21483 * 3)
(2) OSD ID 的 max avail 值:91.4 / (0.12303/(0.12303 * 3 + 0.21483 * 3)) / 3,3为OSD对应的副本数
本文详细介绍了如何使用ceph osd df命令获取Ceph集群中各OSD的容量信息,包括总容量、已用空间、可用空间及使用率等,并展示了如何计算每个OSD的maxavail值,这对于理解Ceph存储系统的资源分配和优化具有重要意义。
574

被折叠的 条评论
为什么被折叠?



