
ceph
文章平均质量分 61
strayeagle
这个作者很懒,什么都没留下…
展开
-
因存在多文件系统导致OSD启用失败
今天在创建OSD并启用它的时候,出现了如下一个错误:shellraise e。原创 2024-09-19 10:02:19 · 321 阅读 · 0 评论 -
利用oceanfile批量构造文件并统计cephfs速度
前段时间RD优化了rocksdb,S3的性能有显著提升,在此基础上,利用RD自研工具验证cepfhs 写速度,每间隔5million个文件进行一次写速度的统计。原创 2024-09-19 10:00:04 · 329 阅读 · 0 评论 -
shell完成一次ceph-osd crash验证
最近在测试ceph rocksdb性能优化效果,由于频繁的重启机器(ipmitool power off),出现了两次ceph-osd replay crash问题,由于频繁的power off太伤机器了,验证完毕rocksdb性能优化后,重写了个script,通过kill ceph 核心服务来模拟突然掉电,同时cosbench持续狂打流量,以及不间断的reset s3 pool 来完成场景的复现。原创 2024-09-19 09:58:19 · 422 阅读 · 0 评论 -
ceph S3 多租户
在J版之前,同一个ceph集群中不允许有同名的bucket和S3账号的存在,从J版本开始,引入multi-tenancy功能,使得不同tenant(租户)下的账号和bucket可以同名,为了兼容J之前的版本,提供了一名为空的“legacy” 租户,如果没有指定tenant,则从这个“legacy” tenant去获取账号/bucket信息。本文所示的多租户,解决了如下问题:实现同集群中创建同名bucket和S3账号,即实现租户的数据隔离。原创 2024-09-19 09:48:10 · 1000 阅读 · 0 评论 -
VD与RAID分区对应关系
环境中创建了VD,lsblk可以看到创建好后的分区信息,如何获取分区与RAID VD之间的对应关系呢,比如/dev/sdc分区,对应RAID组哪个VD?原创 2024-09-18 09:20:52 · 503 阅读 · 0 评论 -
脚本统计ES写入速度
本文介绍下如何call API的方式去统计ES的写速度,当然,你可以使用监控工具去统计,不在本文描述范围。原创 2024-09-18 09:19:06 · 517 阅读 · 0 评论 -
控制keepalive VIP漂移范围
产品有配置keepalive功能,但该功能目前仅通过priority来控制VIP在不同节点间漂移,此处的不同节点,是集群内部的所有节点。我们先看看下各个节点(以3节点为例),keepalive.conf内容信息,参考如下:== node243shellpriority 3bond112.7.3.89== node244shellpriority 2bond112.7.3.89== node245shellpriority 1bond112.7.3.89。原创 2024-09-18 09:07:49 · 425 阅读 · 0 评论 -
SSD盘符漂移导致OSD down场景模拟与恢复
运维团队反馈一个问题,现象是:某个OSD对应的cache分区发生了变化,比如原来cache使用的分区是/dev/sde,后来还是这块盘,但分区信息不知何故,变成了/dev/sdf(产品OSD设备并不是根据分区名称来map,而是根据partlabel),最终的现象是这个OSD down了,没法启动.接到这个现象的反馈后,记录一下这个问题在lab的复现方法。原创 2024-09-14 18:02:51 · 770 阅读 · 0 评论 -
基于Nose Framework做分布式存储产品自动化
自2018-05-01提交第一个commit以来,在不影响正常测试工作release版本情况下,断断续续的持续了1年8个月的自动化开发在今天(2019-12-31)收尾了,总测试用例数为1310个,一路走来深有感慨。。。。。。虽然收尾了,但后期版本功能发生变化,或者用例开发过程中有一些bug未考虑到导致用例执行失败的,还是需要对用例进行修改、优化,总之,一个产品自动化的完善,需要一个循序渐进的过程,持之以恒,总会渐变渐好!原创 2024-09-14 17:59:20 · 1739 阅读 · 0 评论 -
如何快速知道S3存储性能
当ceph S3集群搭建成功后,想知道当前存储的RGW性能如何, 如何快速评估呢?本文介绍3种方法:s3cmd并发rest-benchcosbench。原创 2024-09-13 09:52:42 · 807 阅读 · 0 评论 -
Summary of S3 Sample
本文章著作权归作者所有,任何形式的转载都请注明出处。来源: Transcendent。文章作者: Gavin Wang。原创 2024-09-13 09:47:56 · 220 阅读 · 0 评论 -
S3 placement to create bucket
最近存储产品开始支持多个S3 Placement了,即上传S3 Object,默认存放到Default S3 Placement,如果有其他S3 Placement的存在,需要指定具体的S3 Placement名称,为此写了一测试脚本方便测试验证此功能。原创 2024-09-13 09:46:37 · 293 阅读 · 0 评论 -
iSCSI 相关操作介绍
本文主要介绍作为initiator端时,如何访问存储端IP_SAN device。原创 2024-09-13 09:43:02 · 442 阅读 · 0 评论 -
List 3 object from Bucket
因为要调测ceph S3相关参数,观察参数调整对的 影响,因此写了如下脚本辅助测试。原创 2024-09-11 10:12:02 · 416 阅读 · 0 评论 -
IOPS计算
本文概述如何根据硬盘,来推算IOPS。原创 2024-09-11 09:55:22 · 1013 阅读 · 0 评论 -
Put 1Million S3 objects to bucket
本文章著作权归作者所有,任何形式的转载都请注明出处。来源: Transcendent。文章作者: Gavin Wang。原创 2024-09-11 09:54:13 · 250 阅读 · 0 评论 -
ESXi remount VMFS
本文章著作权归作者所有,任何形式的转载都请注明出处。来源: Transcendent。文章作者: Gavin Wang。原创 2024-09-10 09:48:47 · 458 阅读 · 0 评论 -
Upload and download S3 Big metadata
因应标,要求支持64M大小的metadata,所以南京Office测试一下,如何给上传一个比较大的metadata。原创 2024-09-10 09:47:38 · 471 阅读 · 0 评论 -
EXT4修复FS error
早起产品因为没有很多的控制cache flush策略,导致服务器掉电后,有比较高的概率出现EXT4 FS error,本文介绍借助 e2fsck 如何修复这部分错误。原创 2024-09-10 09:45:17 · 758 阅读 · 0 评论 -
磁盘加入RAID组
从RAID组中拔掉一块硬盘,重新插入一块新盘,无需执行任何megacli命令,新盘会自动加入RAID组,并处于rebuild状态,直至rebuild完成后,RAID组恢复正常。测试场景中含有容灾测试,其中涉及到拔盘测试,本文以该场景为例,指导如何恢复RAID组到正常状态。如上图所示,坏了的磁盘,状态应该是unconfig(good),这里截图仅供参考。(2)标记磁盘为unconfig(good)状态。命令,将步骤2中标记的盘导入raid组。文章作者: Gavin Wang。(3)导入RAID组。原创 2024-09-10 09:41:53 · 566 阅读 · 0 评论 -
SCSI自动挂载
test -l表示挂载当前discovery到的名字是iqn.2016-12.bigtera.com:test的target,所有的IP都会被挂载到;同理,如果是iscsiadm -m node -p 192.168.1.1 -u,表示卸载192.168.1.1上的所有target;如果既没有-p,也没有-T,表示挂载/卸载所有session。iscsiadm工具用于Linux连接以太网上的iSCSI设备,我们的系统中内置本工具,如果是其他OS,可能需要先安装相应包。挂载iSCSI 设备。原创 2024-09-10 09:39:02 · 633 阅读 · 0 评论