Ceph 压测相关整理

1.压测Ceph带宽数据

指的是硬盘或设备(路由器/交换机)在传输数据的时候数据流的速度

(1) 在rbd pool创建一个test块设备,大小为100G,这个大小可以超过pool本身大小,因为是瘦分配.

[root@node-1 ~]# rbd create rbd/test2 --size 100G --object-size 4M --image-feature layering --stripe-unit 4M --stripe-count 1

(2) 映射该设备到机器

[root@node-1 ~]# rbd map rbd/test2
/dev/rbd7

(3) 该设备可以初始化,挂载并使用

(4) 对该设备进行带宽压测,bs需要大点

[root@node-1 ~]# dd if=/dev/zero of=$(rbd showmapped | grep test2 | awk '{print$5}') bs=1M count=102400

(5) 解除该设备对本机的映射

[root@node-1 ~]# rbd unmap rbd/test2

(6) 删除该块设备

[root@node-1 ~]# rbd rm rbd/test2
Removing image: 100% complete...done.

2.压测Ceph IOPS

指的是系统在单位时间内能处理的最大的I/O频度,是衡量磁盘性能的主要指标之一

(1) 用

### 识别 FIO 试中 Ceph 系统瓶颈的方法 在使用 FIO 对 Ceph 进行试时,判断系统是否出现瓶颈需要结合多个维度的性能指标分析。这些指标包括但不限于 IOPS、延迟、吞吐量以及系统资源利用率。 #### 分析 FIO 输出的关键指标 FIO 试完成后输出的报告包含多个关键性能指标,如 `IOPS`、`latency`(延迟)、`bandwidth`(带宽)等。如果观察到 IOPS 或吞吐量未能随并发任务数(`iodepth`)增加而线性增长,则表明系统可能已达到某个瓶颈点[^1]。例如,在以下配置中: ```ini [random-read] rw=randread ioengine=libaio direct=1 iodepth=32 bs=4k size=2G runtime=90 group_reporting=1 ``` 若 `iodepth` 增加至 64 后 IOPS 提升有限,则说明存储系统的处理能力受限于后端硬件或网络。 #### 监控 Ceph 集群资源使用情况 在进行 FIO 试的同时,应实时监控 Ceph 集群的各项资源使用情况,包括 CPU 使用率、内存占用、磁盘 I/O 负载及网络带宽。当某项资源接近其上限时,即可判断该资源为当前瓶颈所在。例如,可通过 `ceph -s` 和 `iostat` 等命令获取集群状态与节点级性能数据。 #### 利用 Ceph 内部统计信息辅助诊断 Ceph 提供了丰富的内部统计接口,可用于深入分析集群运行状况。通过执行 `ceph daemon osd.<id> perf dump` 可查看特定 OSD 的性能计数器,进而判断是否存在队列积、响应延迟高等问题。此外,还可使用 `ceph pg stat` 查看归置组状态,确保没有异常 PG 导致性能下降。 #### 结合 FIO 多线程试验证扩展性 为了进一步确认系统瓶颈位置,可采用多线程方式模拟更高并发访问场景。例如,将 `numjobs` 设置为 8 并调整 `iodepth` 至较高值,以观察系统整体负载变化趋势: ```ini [parallel-random-read] rw=randread ioengine=libaio direct=1 iodepth=64 bs=4k size=512m numjobs=8 runtime=60 group_reporting=1 ``` 若随着并发度提升性能曲线趋于平缓甚至下降,则意味着系统无法有效处理更多请求,可能存在软硬件层面的限制。 ---
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值