ceph之osd

本文详细介绍如何使用命令行工具管理Ceph存储集群中的OSD,包括删除、新增OSD的具体步骤,并提供两种新增OSD的方法:使用ceph-deploy工具和纯手动方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、删除osd


ceph osd out 1
ceph osd down 1
systemctl stop ceph-osd@1
ceph osd crush remove osd.1
ceph osd rm 1
ceph auth del osd.1

 

 二、用ceph-deploy方式新增一个osd

1、登录deploy节点,打开集群创建目录

root@ceph01:~# cd /root/my-cluster/
root@ceph01:~/my-cluster# 

2、准备一块硬盘:/dev/sdb1并初始化osd

ceph-deploy osd prepare ceph02:/dev/sdb1

3、激活集群的所有osd

ceph-deploy osd activate  ceph01:/dev/sdb1 ceph02:/dev/sdb1

 

 三、纯手动方式新增一个OSD

1.在osd4创建挂载目录及放置配置文件的目录
 
    ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机)
 
    mkdir /ceph/osd.4 
 
    mkdir /etc/ceph  
 
2.在osd4上格式化ext4的sda3分区,挂载分区。
 
    mkfs.ext4 /dev/sda3
 
    mount -o user_xattr /dev/sda3 /ceph/osd.4
 
3.将mon主机的id_dsa.pub拷至osd4主机,实现免密码访问
 
    scp /root/.ssh/id_dsa.pub 192.168.0.110:/root/.ssh/id_dsa.pub102
 
    ssh 192.168.0.110
 
    cd /root/.ssh
 
    cat id_dsa.pub102 > authorized_keys
 
4.在mon主机上修改ceph.conf配置文件
 
    vi /etc/ceph/ceph.conf
 
    [osd.4]
 
       host = osd4
 
       deves = /dev/sda3
 
5.复制修改后的ceph.conf文件至每一个MDS和OSD节点并复制一份至/usrlocal/etc/ceph/
 
    scp /etc/ceph/ceph.conf 192.168.0.110:/etc/ceph/  (这里只写这一个,不要忘记同步其他节点的配置文件)
 
6.创建osd
 
    ceph osd create osd.4
 
7.加载OSD数据目录
 
    ssh 192.168.0.110
 
    ceph-osd -i osd.4 --mkfs --mkkey
 
下面更新crushmap后,新增的osd就可以存放数据了。
 
8.创建当前正在使用的crushmap
 
    ceph osd getcrushmap -o map   (map 是自定义的一个名称,下面需要用到这个名称)
 
9.反编译后导出crushmap
 
    crushtool -d map -o /root/map.txt (map.txt是导出的文件名)
 
10.修改map.txt
 
vi map.txt
 
#devices
device 0 osd.0
device 1 osd.1
device 2 osd.2
device 3 osd.3
device 4 osd.4
    
host osd4 {
        id -1
        alg straw
        hash 0
        item osd.4 weight 1.00
}
 
10.编译crushmap
 
    cephtool -c /root/map.txt -o map
 
11.将编译好的map再次导入
 
    ceph osd crushmap -i map
 
12.启动osd.4
 
    ssh 102.168.0.110
 
    /etc/init.d/ceph start osd.4或
   /etc/init.d/ceph start osd.4或

  systemctl start ceph-osd@4

 
13.查看osd.4是否正常启动
 
    ceph -s
### 如何在Ceph集群中添加新的OSD #### 准备工作环境 为了确保新OSD能够顺利集成到现有Ceph集群,在每台节点上创建统一的工作目录用于存放配置文件和其他必要资源。 ```bash mkdir -p /etc/ceph ``` 此命令将在所有参与节点上建立名为`/etc/ceph`的目录结构,以便集中管理与维护[^4]。 #### 清除旧版本残留影响 对于计划用作OSD的新磁盘而言,任何先前存在的数据或分区表可能会干扰初始化过程。因此建议先清理目标磁盘: ```bash wipefs -af /dev/sdX # X代表具体设备字母标识符 parted /dev/sdX mklabel gpt ``` 上述指令会彻底清除指定驱动器上的文件系统签名以及重新标记为GPT格式,从而避免潜在冲突[^2]。 #### 创建并格式化分区 如果打算利用整个物理卷作为单一OSD,则无需额外划分;反之则需针对特定区域构建EXT4或其他兼容类型的文件系统: ```bash mkfs.ext4 /dev/sdX1 # 假设仅使用首个逻辑分区 ``` 这一步骤旨在为即将挂载至Ceph系统的部分提供适当的基础架构支持。 #### 添加OSD至集群 借助于`ceph-deploy osd prepare` 和 `ceph-deploy osd activate`两个子命令来完成实际硬件资源向可用存储单元转变的过程: ```bash ceph-deploy osd prepare node:/dev/sdX1 # 替换node为对应主机名,sdX1为目标分区路径 ceph-deploy osd activate node:/var/lib/ceph/osds/ceph-0 # 同样替换相应参数值 ``` 通过以上操作可以正式把选定介质纳入分布式体系之中,并使其参与到整体读写活动中去[^3]。 最后确认新增成员已正常上线运行可通过如下方式查询当前状况概览: ```bash ceph status ``` 这条语句返回的信息里应当包含最新加入者在内的全部在线组件列表及其健康状态说明。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值