此环境已经配置好ceph分布式存储集群
此文特别注意ceph mds stat
e2: 0/0/1 导致的mount error 5 = Input/output error报错
执行下面命令安装元数据服务器即可解决(在文章里有描述)
ceph-deploy mds create admin ceph-1 ceph-2
有关ceph集群搭建请观看博主早期文章
文章链接https://blog.youkuaiyun.com/zeorg/article/details/111713752
系统环境 centos7
IP | 节点名称 |
---|---|
192.168.182.150 | admin |
192.168.182.151 | ceph-1 |
192.168.182.152 | ceph-2 |
192.168.182.129 | client |
1、创建数据存储池、需要数据存储池和元数据存储池。
master节点执行
ceph osd pool create ceph_data 128
ceph osd pool create ceph_metadata 128
ceph fs new mycephfs ceph_data ceph_metadata
ceph fs ls (查看创建后的cephfs)
ceph mds stat(查看状态)
e2: 0/0/1 up (如果这样显示需要安装元数据服务器)
ceph-deploy mds create admin ceph-1 ceph-2
ceph mds stat (再次查看)
e6: 1/1/1 up {0=ceph-1=up:active}, 1 up:standby
ok现在可以再客户端挂载ceph
2、客户挂载ceph文件存储系统。
client节点执行
yum -y install ceph
mkdir /mnt/ceph
查看key
cat /etc/ceph/ceph.client.admin.keyring
[client.admin]
key = AQCqzSBgBAaVHBAA+v/aDLq6ctqhOJtzcVGjNA==
caps mds = "allow *"
caps mon = "allow *"
caps osd = "allow *"
mount -t ceph 192.168.182.150:6789:/ /mnt/ceph -o name=admin,secret=AQCqzSBgBAaVHBAA+v/aDLq6ctqhOJtzcVGjNA==
验证
df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root xfs 50G 1.6G 49G 4% /
devtmpfs devtmpfs 478M 0 478M 0% /dev
tmpfs tmpfs 489M 0 489M 0% /dev/shm
tmpfs tmpfs 489M 6.8M 482M 2% /run
tmpfs tmpfs 489M 0 489M 0% /sys/fs/cgroup
/dev/mapper/centos-home xfs 45G 33M 45G 1% /home
/dev/sda1 xfs 1014M 143M 872M 15% /boot
tmpfs tmpfs 98M 0 98M 0% /run/user/0
/dev/sdb1 xfs 15G 110M 15G 1% /var/lib/ceph/osd/ceph-1
192.168.182.150:6789:/ ceph 45G 328M 45G 1% /mnt/ceph
3、写入开机自动挂载。
client节点执行
192.168.182.150:6789:/ /mnt/ceph ceph defaults,name=admin,secret=AQCqzSBgBAaVHBAA+v/aDLq6ctqhOJtzcVGjNA== 0 0
把上面一行文件写到/etc/fstab文件里面
执行mount -a 验证
##多个客户端执行文件系统方式挂载ceph步骤即可(肯定是多个客户端,一个客户端用ceph就没有意义了)