ceph v15.2.13版本[octopus]分布式集群部署

本文档详细介绍了如何部署Ceph v15.2.13(Octopus)分布式集群,包括Ceph组件介绍、在3台服务器上的初始化步骤、部署Ceph各个组件、安装Dashboard、创建文件系统以及查看集群信息。内容涵盖从配置hosts、免密登录、磁盘初始化到Ceph服务的启动与优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.Ceph组件

  • OSDs:存储设备
  • Monitors:集群监控组件
  • RBD:对象存储网关
  • MDSs:存放文件系统的元数据.(但对象存储和块存储设备是不需要使用该服务的)
  • Ceph版本镜像:ceph/daemon:latest-octopus 版本号:
      ceph version 15.2.13 (c44bc49e7a57a87d84dfff2a077a2058aa2172e2) octopus (stable)

二.在 3 台服务器进行如下初始化 

1.配置 hosts

cat >> /etc/hosts <<EOF
192.168.1.96 ceph1
192.168.1.97 ceph2
192.168.1.98 ceph3
EOF

每台主机的主机名需更改

cat >> /etc/hostname <<EOF
Ceph1
EOF

2.建立信任关系

#ssh-keygen免密登录

[root@ceph1 ]# ssh-keygen  -t rsa    -f ~/.ssh/id_rsa   -C "jyy"

#回车完成后, 将拷贝公钥

[root@ceph1 .ssh]# ssh-copy-id ceph2   #输入服务器密码

#验证服务器

[root@ceph1 .ssh]# ssh ceph2

3.磁盘初始化

#在作为cephFS服务端的主机上新挂载一块硬盘

[root@ceph1 ~]# fdisk -l

#现将其分区和格式化 (输入n,然后一路默认最后输入w,完成分区)

[root@ceph1 ~]# fdisk /dev/sdb

#然后格式化

[root@ceph1 ~]# mkfs.xfs -f /dev/sdb1

#然后挂载到目录

[root@ceph1 ~]# mkdir -p /data

在/etc/fstab 追加如下内容

[root@ceph1 ~]# cat >> /etc/fstab <<EOF
/dev/sdb1              /data             xfs    defaults        0 0
EOF

最后执行 mount /dev/sdb1 /data 挂载,使用 df -h 查看挂载情况

[root@ceph1 ~]# mount /dev/sdb1 /data
[root@ceph1 ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 1.9G     0  1.9G    0% /dev
tmpfs                    1.9G     0  1.9G    0% /dev/shm
tmpfs                    1.9G  9.0M  1.9G    1%
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值