上一篇文章ceph实战之ceph集群的管理(二)_Mr.Lilh的博客-优快云博客介绍了ceph集群的块存储和对象存储系统,本篇文章将会介绍下ceph集群的文件系统存储。
一:ceph集群文件系统管理
cephmds: 是 Ceph 分布式文件系统的元数据服务器守护进程。一个或多个 ceph-mds 实例共同管理文件系统命名空间,协调对共享 OSD 集群的访问
1)安装ceph-mds 软件
#选取节点安装ceph-mds
yum install -y ceph-mds
2)把mds节点加入cephmds集群
ceph-deploy mds create cephstore1
ceph-deploy mds create cephstore2
ceph-deploy mds create cephstore3
3) 查看mds加入集群状况
4)创建cephfs metadata 和 data 存储池
#创建元数据分区
ceph osd pool create cephfs-metadata 16 16
#创建数据
ceph osd pool create cephfs-data 32 32
5)创建一个新的文件系统
#创建一个叫做mycephfs的文件系统
ceph fs new mycephfs cephfs-metadata cephfs-data
6)查看文件系统信息
ceph fs status mycephfs
7)在业务服务器上挂载ceph-fs文件系统
# 在业务服务器上安装ceph服务
yum install ceph
#执行ceph 文件系统挂载
mount -t ceph 10.19.14.27:6789,10.19.14.25:6789,10.19.14.23:6789:/ /mnt -o name=admin,secret=AQChmjZinb2wHhAAGJSb+CSa4Sk0aPfNSxG50w==
#此处的IP地址为mds节点IP地址可以为多个IP地址实现 后面screat为/etc/ceph/ceph.client.admin.keyring 里下key里的证书
8)查看ceph文件系统挂载情况
可以看到 文件系统挂载在/mnt目录下
9) ceph-mds 节点提升为双主一备状态配置
#设置ceph文件系统mds服务为双主一备
ceph fs set mycephfs max_mds 2
查看设置后信息
10)关停14.27节点的mds服务看挂载的文件系统是否还能用
此时向文件系统里仍然可以写入文件