ceph对象存储-存储池-用户认证

OSD 操作

# 查看osd硬件是否开启了 bluestore 分片
[root@test-ceph1 ~]# ceph config get osd.1 bluestore_rocksdb_cf
true

# 查看集群的 osd 设备
[root@test-ceph1 ~]# ceph orch device ls

# 查看ceph设备
[root@test-ceph1 ~]# ceph device ls

# 准备osd设备,删除设备上的分区并清理数据
# --force,强制
ceph orch device zap test-ceph1 /dev/nvme0n4 --force

# 自动配置osd
ceph orch apply osd --all-available-devices

# 禁用自动管理osd
ceph orch apply osd --all-available-devices --unmanaged=true

# 添加指定的主机的指定磁盘做osd
ceph orch daemon add osd test-ceph1:/dev/nvme0n4

# 停止某个osd
ceph orch daemon stop osd.1
# 删除某个osd
ceph orch daemon rm osd.1
ceph osd rm 1

# 通过 spec 文件部署osd
service_type: osd
service_id: osd_size_and_model
placement:
  host_pattern: '*' # 匹配任何主机
data_devices:
  size: '100G'  # 匹配100G或者以上容量的设备
db_devices:
  model: My-Disk  # 匹配有My-Disk标记的设备
wal_devices:
  size: '10G:20G' # 匹配10G-20G容量的设备
unmanaged:true
---
service_type: osd
service_id: osd_host_and_path
placement:
  host_pattern: 'test-ceph[7-10]'
data_devices:
  paths:
    - /dev/nvme0n4
db_devices:
  paths:
    - /dev/nvme0n3
wal_devices:
  paths:
    - /dev/nvme0n2
encrypted: true # 设备加密
# 进行部署
ceph orch apply -i service_spec.yaml

# ceph-volume 支持LVM插件和裸盘设备
# 使用 nvme0n2 创建一个新的 bluestore OSD
ceph-volume lvm create --bluestore --data /dev/nvme0n2

ceph-volume lvm prepare --bluestore --data /dev/nvme0n2
ceph-volume lvm list
ceph-volume lvm activate <sod-fsid>
ceph-volume lvm batch --bluestore  /dev/nvme0n2  /dev/nvme0n3  /dev/nvme0n4
ceph-volume inventory

使用逻辑卷创建 BluseStore OSD

# 查看集群状态
ceph -s 

# 查看集群磁盘容量
[root@test-ceph1 ~]# ceph df 
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
ssd    1.5 TiB  1.5 TiB  4.3 GiB   4.3 GiB       0.28
TOTAL  1.5 TiB  1.5 TiB  4.3 GiB   4.3 GiB       0.28
 
--- POOLS ---
POOL  ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
.mgr   1    1  449 KiB        2  1.3 MiB      0    474 GiB

# 查看osd布局
[root@test-ceph1 ~]# ceph osd tree
ID   CLASS  WEIGHT   TYPE NAME            STATUS  REWEIGHT  PRI-AFF
 -1         1.46530  root default                                  
 -7         0.29306      host test-ceph1                           
  1    ssd  0.09769          osd.1            up   1.00000  1.00000
  7    ssd  0.09769          osd.7            up   1.00000  1.00000
 12    ssd  0.09769          osd.12           up   1.00000  1.00000
 -9         0.29306      host test-ceph2                           
  3    ssd  0.09769          osd.3            up   1.00000  1.00000
  8    ssd  0.09769          osd.8            up   1.00000  1.00000
 13    ssd  0.09769          osd.13           up   1.00000  1.00000
-11         
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值