Ceph存储:协议、集群与池类型详解
1. Ceph存储协议与NFS、CephFS方法
在存储领域,Ceph提供了多种存储协议以满足不同需求。其中,NFS和CephFS方法具有独特优势。CephFS作为一种文件系统,可直接导出,相较于其他方法减少了一层架构。而且,它是分布式文件系统,能同时跨多个代理节点挂载,减少了需跟踪和管理的集群对象数量。
通常,单个CephFS文件系统可通过NFS导出,提供单个大型ESXi数据存储,无需像使用RBD时那样担心虚拟机在数据存储之间的迁移问题,大大简化了操作,克服了诸多限制。
虽然CephFS仍需进行元数据操作,但与XFS或VMFS处理元数据操作的方式相比,其并行处理能力更强,对性能的影响极小。还可将CephFS元数据池置于闪存存储上,进一步提升性能。同时,元数据更新的处理方式大大降低了PG锁定的发生率,保证了数据存储的并行性能不受限制。
CephFS可通过Ganesha FSAL直接导出,也可通过Linux内核挂载后再导出。出于性能考虑,目前首选通过内核挂载CephFS后再导出的方法。在选择适合自身环境的方法前,建议深入研究每种方法,并确保能顺利管理所选解决方案。
1.1 操作步骤
- 安装相关工具集:
apt-get install corosync pacemaker crmsh
- 编辑corosync配置文件并更改绑定地址:
nano
超级会员免费看
订阅专栏 解锁全文
43

被折叠的 条评论
为什么被折叠?



