CEPH快速搭建六(cephfs文件存储管理)

本文详细介绍了如何在Ceph集群中配置文件系统CephFS,包括创建必要的pool池,以及如何通过两种方式挂载CephFS,以便于进行文件存储。首先,需要创建两个pool池,分别用于存放数据和元数据,然后创建CephFS并完成挂载过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果需要cephfs使用文件存储,需要两个pool池,一个存数据一个存元数据
切这连个pool的名称不能改为其他


这里我新建两个pool
[ceph@ceph-admin ~]$ ceph osd pool create cephfs_data 64
pool 'cephfs_data' created
[ceph@ceph-admin ~]$ ceph osd pool create cephfs_metadata 64
pool 'cephfs_metadata' created

创建文件系统
[ceph@ceph-admin ~]$ ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 4 and data pool 3

挂载
[ceph@ceph-admin ~]$ ceph-authtool --print-key /etc/ceph/ceph.client.admin.keyring
AQA8/K5citjDCxAA0rAPBk+Mg+RTR4XTRRJpOQ==

[ceph@ceph-admin ~]$ mount -t ceph ceph-admin,ceph-node1,ceph-node2:/ /mnt/test/ -o name=admin,secret=AQA8/K5citjDCxAA0rAPBk+Mg+RTR4XTRRJpOQ==
或者
[root@ceph-node3 ~]# ceph-fuse -k /etc/ceph/ceph.client.admin.keyring -m ceph-admin,ceph-node1,ceph-node2 /mnt/test/

书写文档不易,如果你觉得我写得可以打个赏呗

https://www.fageka.com/store/item/s/id/Yx6TZ1m0747.html

CEPH快速搭建七(ceph对象存储)

https://blog.youkuaiyun.com/xx496146653/article/details/89248275

04-03
### CephFS 使用指南 Ceph 文件系统 (CephFS) 是一种分布式文件系统,允许用户通过标准 POSIX 接口访问数据。它提供了两种主要的挂载方式:内核空间挂载和用户空间挂载。 #### 内核空间挂载 内核空间挂载需要依赖 Linux 内核模块的支持。以下是实现内核空间挂载的具体步骤: 1. 创建目标目录并准备密钥文件: ```bash mkdir -p /cephfs-data echo "AQDKPexjJxr6LRAAI3QUn69j8QZOAPYTLf/CKw==" > /etc/ceph/cephfs.key ``` 2. 执行挂载命令: ```bash mount -t ceph 20.0.1.116:6789,20.0.1.117:6789,20.0.1.118:6789:/ /cephfs-data -o name=cephfs,secretfile=/etc/ceph/cephfs.key ``` 3. 设置开机自动挂载(编辑 `/etc/fstab` 文件): ```bash echo "20.0.1.116:6789,20.0.1.117:6789,20.0.1.118:6789:/ /cephfs-data ceph defaults,name=cephfs,secretfile=/etc/ceph/cephfs.key,_netdev 0 0" >> /etc/fstab cat /etc/fstab ``` 上述过程展示了如何配置基于内核的空间挂载[^1]。 #### 用户空间挂载 对于不希望修改内核环境的情况,可以采用 `ceph-fuse` 工具来完成用户空间挂载。具体操作如下: 1. 安装 `ceph-fuse` 并创建目标目录: ```bash sudo apt-get install ceph-fuse mkdir -p /mnt/cephfs-user-space ``` 2. 挂载指定路径到本地目录: ```bash sudo ceph-fuse /mnt/cephfs-user-space ``` 如果需要更灵活的方式,则可以通过以下参数化形式进行挂载: ```bash sudo mount -t ceph $monHost:$cephfsPath $path -o name=$user,secret=$keyring ``` 其中 `$monHost`, `$cephfsPath`, 和其他变量需替换为实际值[^2]。 #### 存储池规划建议 为了优化性能,在设计存储池时需要注意 PG 数量的选择依据集群规模而定。例如少于5个 OSD 则推荐设置 PG 数为128;当有更多节点参与时可根据比例调整至更高数值如1024等[^4]。 #### 开发者接口支持 除了基础运维外,开发者也可以利用官方提供的 SDK 进行程序级交互开发工作。比如使用Go语言绑定库能够快速搭建起与Ceph之间的通讯桥梁,并轻松完成诸如对象上传下载之类的任务[^3]。 ### 示例代码片段 下面给出一段简单的 Python 脚本来展示连接到 Ceph 集群的过程以及读取元数据的操作: ```python import rados cluster = rados.Rados(conffile='/etc/ceph/ceph.conf') try: cluster.connect() except Exception as e: print(f'Connection error: {e}') finally: ioctx = cluster.open_ioctx('my_pool') # 替换为你自己的 pool 名称 print(ioctx.get_stats()) cluster.shutdown() ``` ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值