ceph集群的pg非常重要,同时pg数量,也影响到集群的存储分布,那到底该如何规划pg数呢?
一旦设置pg和pgp数量,就不需要再调整,否则会引发数据的大量迁移。如果一定要调整,请确保调整前,集群是ok状态
pg 跟 pool 关联,一个pool有多少个pg,跟osd数相关
PG和PGP数量一定要根据OSD的数量进行调整,计算公式如下,但是最后算出的结果一定要接近或者等于一个2的指数:
One pool total PGs = (Total_number_of_OSD * 100) / max_replication_count
例如15个OSD,副本数为3的情况下,根据公式计算的结果应该为500,最接近512,所以需要设定该pool(volumes)的pg_num和pgp_num都为512
ceph osd pool set volumes pg_num 512
ceph osd pool set volumes pgp_num 512
https://ceph.com/pgcalc/ 官方指导建议,
规划Ceph PG数
本文介绍了如何合理规划Ceph集群中的PG数量。PG数量直接影响存储分布,并且与OSD数量密切相关。文章给出了计算PG数量的公式及实例,强调了设置PG数前后集群状态的重要性。
1378

被折叠的 条评论
为什么被折叠?



