Ceph 集群规划指南
1. 内存规划
在 Ceph 集群中,若放置组(PG)数量设置高于最佳实践,内存使用量会增加。当从集群中移除一个 OSD 时,为重新平衡集群,额外的 PG 会被放置在剩余的 OSD 上,这也会增加内存使用以及恢复操作的负担。若内存不足,内存使用量的激增有时会导致级联故障。
为降低 Linux 内存不足杀手在内存不足时随机杀死 OSD 进程的风险,应在 SSD 上配置一个大的交换分区。对于 HDD,每个 OSD 至少应配置约 4GB 内存;对于 SSD,则至少为 5GB。不过这只是最低要求,每个 OSD 配置 5GB(HDD)或 6GB(SSD)内存是比较理想的。
无论是使用 BlueStore 还是 filestore,服务器上安装的额外内存都可用于缓存数据,减少客户端操作的读取延迟。filestore 使用 Linux 页面缓存,会自动利用内存;而使用 BlueStore 时,需要手动调整内存限制,将额外内存分配用作缓存。
无论配置的内存大小如何,都应始终使用 ECC 内存。
2. CPU 规划
2.1 CPU 性能要求
Ceph 官方建议每个 OSD 配备 1GHz 的 CPU 功率,但实际情况并非如此简单。每个 I/O 操作都需要一定的 CPU 功率,并非固定值。I/O 操作越多,所需的 CPU 功率就越大。对于基于旋转磁盘的 OSD,官方建议是一个不错的安全选择;但配备快速 SSD 的 OSD 节点,其 CPU 消耗往往是建议值的数倍。此外,CPU 需求还会因 I/O 大小而异,较大的 I/O 需要更多的 CPU 资源。
若 OSD 节点开始
超级会员免费看
订阅专栏 解锁全文
56

被折叠的 条评论
为什么被折叠?



