[ceph 的通用解决方案] - 4.如何指定 ssd 盘为主 osd,hdd 为从 osd
将从以下 6 个方面介绍 ceph 的通用解决方案
- 性能方面:
1、如何 ssd 作为 Ceph-osd 的日志盘使用
2、如何同一个 Ceph 集群分别创建 ssd 和 hdd 池
3、如何将 ssd 作为 hdd 的缓存池
4、如何指定 ssd 盘为主 osd,hdd 为从 osd
- 稳定及数据安全性方面:
5、Ceph 双副本如何保证宕机数据的安全性
6、Ceph 纠删码理论与实践
注意:该文章同时在华云数据官方公众号上发布
智汇华云 | Ceph 的正确玩法之指定 SSD 为主 OSD,HDD 为从 OSD
下面我们开始专题:如何指定 ssd 盘为主 osd,hdd 为从 osd
场景:
假设 1
当前集群环境中混用了 SSD 与 SATA 磁盘
假设 2
当前具有一批大小一样的 SATA 磁盘 其中 OSD.0 已经使用了很多年 其他 OSD 磁盘都是新采购,性能会比 OSD.0 更加好
实验室中有两批 sas 磁盘,一批是 7200 转磁盘,一批是 10000 转磁盘,
期望结果:
集群中存在多种性能不一样的磁盘与主机 为了保证 CEPH 集群吞吐与性能可以得到更好的优化
保证了磁盘的数据容量一致的情况下优先使用性能更好的磁盘作出 IO 处理
总结
CEPH 会认为每个磁盘能力一样 会平均每个磁盘的 IO 能力 (primary affinity) 与存储空间能力 (weight) primary affinity 参数可以在不改变磁盘存储能力的情况下,降低在 CEPH 集群使用过程中对该 osd 的认购 primary pg 能力
从上图看出来,priamry osd 在每次 peering 时,都会比 secondary osd 具有更多的 IO
修改配置文件 /etc/ceph/ceph.conf
[mon]
mon_osd_allow_primary_affinity = true
重启 ceph-mon
ceph osd primary-affinity osd.4 0.5
验证: 修改权限之前:
ceph pg dump | grep active+clean | grep '\[4' | wc -l
48
修改权重之后
ceph pg dump | grep active+clean | grep '\[4' | wc -l
8
转自:https://blog.youkuaiyun.com/wylfengyujiancheng/article/details/88299416