存储系统——Ceph

目录

存储基础

单机存储设备

单机存储的问题

分布式存储(软件定义的存储 SDS)

分布式存储的类型

Ceph 概述

Ceph 优势

Ceph 架构

RADOS 基础存储系统

LIBRADOS 基础库

高层应用接口

应用层

Ceph 核心组件

OSD(Object Storage Daemon,守护进程 ceph-osd)

OSD 存储后端

Filestore

Bluestore

BlueStore 的主要功能

PG(Placement Group 归置组)

Pool

Pool中数据保存方式支持两种类型:

Pool、PG 和 OSD 的关系:

Monitor(守护进程 ceph-mon)

Manager(守护进程 ceph-mgr)

MDS(Metadata Server,守护进程 ceph-mds)

Ceph 数据的存储过程

Ceph 版本发行生命周期

Ceph 集群部署

 基于 ceph-deploy 部署 Ceph 集群

资源池 Pool 管理


存储基础

单机存储设备

  • DAS(直接附加存储,是直接接到计算机的主板总线上去的存储),IDE、SATA、SCSI、SAS、USB 接口的磁盘,所谓接口就是一种存储设备驱动下的磁盘设备,提供块级别的存储
  • NAS(网络附加存储,是通过网络附加到当前主机文件系统之上的存储),NFS、CIFS、FTP,文件系统级别的存储,本身就是一个做好的文件系统,通过nfs接口在用户空间输出后,客户端基于内核模块与远程主机进行网络通信,把它转为好像本地文件系统一样来使用,这种存储服务是没办法对它再一次格式化创建文件系统块的
  • SAN(存储区域网络),SCSI协议(只是用来传输数据的存取操作,物理层使用SCSI线缆来传输)、FCSAN(物理层使用光纤来传输)、iSCSI(物理层使用以太网来传输),也是一种网络存储,但不同之处在于SAN提供给客户端主机使用的接口是块级别的存储

单机存储的问题

  • 存储处理能力不足。传统的IDE的IO值是100次/秒,SATA固态磁盘500次/秒,固态硬盘达到2000-4000次/秒。即使磁盘的IO能力再大数十倍,也不够抗住网站访问高峰期数十万、数百万甚至上亿用户的同时访问,这同时还要受到主机网络IO能力的限制。
  • 存储空间能力不足。单块磁盘的容量再大,也无法满足用户的正常访问所需的数据容量限制。
  • 单点故障问题。单机存储数据存在单点故障问题。

分布式存储(软件定义的存储 SDS)

Ceph、TFS、FastDFS、MooseFS(MFS)、HDFS、GlusterFS(GFS),存储机制会把数据分散存储到多个节点上,具有高扩展性、高性能、高可用性等优点。

分布式存储的类型

  • 块存储(例如硬盘,一般是一个存储被一个服务器挂载使用,适用于容器或虚拟机存储卷分配、日志存储、文件存储),就是一个裸设备,用于提供没有被组织过的存储空间,底层以分块的方式来存储数据。
  • 文件存储(例如NFS,解决块存储无法共享问题,可以一个存储被多个服务器同时挂载,适用于目录结构的存储、日志存储),是一种数据的组织存放接口,一般是建立在块级别的存储结构之上,以文件形式来存储数据,而文件的元数据和实际数据是分开存储的。
  • 对象存储(例如OSS,一个存储可以被多服务同时访问,具备块存储的高速读写能力,也具备文件存储共享的特性,适用图片存储、视频存储),基于API接口提供的文件存储,每一个文件都是一个对象,且文件大小各不相同的,文件的元数据和实际数据是存放在一起的。

Ceph 概述

        Ceph使用C++语言开发,是一个开放、自我修复和自我管理的开源分布式存储系统。具有高扩展性、高性能、高可靠性的优点。Ceph目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack,Kubernetes都可与Ceph整合以支持虚拟机镜像的后端存储。粗略估计,我国70%—80%的云平台都将Ceph作为底层的存储平台,由此可见Ceph俨然成为了开源云平台的标配。目前国内使用Ceph搭建分布式存储系统较为成功的企业有华为、阿里、中兴、华三、浪潮、中国移动、网易、乐视、360、星辰天合存储、杉岩数据等。 

Ceph 优势

  • 高扩展性:去中心化,支持使用普通X86服务器,支持上千个存储节点的规模,支持TB到EB级的扩展。
  • 高可靠性:没有单点故障,多数据副本,自动管理,自动修复。
  • 高性能:摒弃了传统的集中式存储元数据寻址的方案,采用 CRUSH 算法,数据分布均衡,并行度高。
  • 功能强大:Ceph是个大一统的存储系统,集块存储接口(RBD)、文件存储接口(CephFS)、对象存储接口(RadosGW)于一身,因而适用于不同的应用场景。

Ceph 架构

自下向上,可以将Ceph系统分为四个层次:

RADOS 基础存储系统

(Reliab1e,Autonomic,Distributed object store,即可靠的、自动化的、分布式的对象存储)
RADOS是Ceph最底层的功能模块,是一个无限可扩容的对象存储服务,能将文件拆解成无数个对象(碎片)存放在硬盘中,大大提高了数据的稳定性。它主要由OSD和Monitor两个组件组成,OSD和Monitor都可以部署在多台服务器中,这就是ceph分布式的由来,高扩展性的由来。

LIBRADOS 基础库

Librados提供了与RADOS进行交互的方式,并向上层应用提供Ceph服务的API接口,因此上层的RBD、RGW和CephFS都是通过Librados访问的,目前提供PHP、Ruby、Java、Python、Go、C和C++支持,以便直接基于RADOS(而不是整个Ceph)进行客户端应用开发。

高层应用接口

包括了三个部分

  1. 对象存储接口 RGW(RADOS Gateway):网关接口,基于Librados开发的对象存储系统,提供S3和Swift兼容的RESTful API接口。
  2. 块存储接口 RBD(Reliable Block Device):基于Librados提供块设备接口,主要用于Host/VM。
  3. 文件存储接口 CephFS(Ceph File System):Ceph文件系统,提供了一个符合POSIX标准的文件系统,它使用Ceph存储集群在文件系统上存储用户数据。基于Librados提供的分布式文件系统接口。

应用层

基于高层接口或者基础库Librados开发出来的各种APP,或者Host、VM等诸多客户端。

Ceph 核心组件

        Ceph是一个对象式存储系统,它把每一个待管理的数据流(如文件等数据)切分为一到多个固定大小(默认4兆)的对象数据(Object),并以其为原子单元(原子是构成元素的最小单元)完成数据的读写。

OSD(Object Storage Daemon,守护进程 ceph-osd)

        负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求返回具体数据的进程等。通常至少需要3个OSD来实现冗余和高可用性。

OSD 存储后端

        OSD 有两种方式管理它们存储的数据。在 Luminous 12.2.z 及以后的发行版中,默认(也是推荐的)后端是 BlueStore。在 Luminous 发布之前, 默认是 FileStore, 也是唯一的选项。

Filestore

FileStore是在Ceph中存储对象的一个遗留方法。它依赖于一个标准文件系统(只能是XFS),并结合一个键/值数据库(传统上是LevelDB,现在BlueStore是RocksDB),用于保存和管理元数据。
FileStore经过了良好的测试,在生产中得到了广泛的应用。然而,由于它的总体设计和对传统文件系统的依赖,使得它在性能上存在许多不足。

Bluestore

BlueStore是一个特殊用途的存储后端,专门为OSD工作负载管理磁盘上的数据而设计。BlueStore 的设计是基于十年来支持和管理 Filestore 的经验。BlueStore 相较于 Filestore,具有更好的读写性能和安全性。

### Ceph 分布式存储系统概述 Ceph 是一种分布式存储解决方案,能够提供对象、块以及文件存储功能[^2]。这种技术不仅具备高度可靠性与简易管理特性,而且完全开源免费。 ### 架构详解 #### RADOS 层 核心组件RADOS(Reliable Autonomic Distributed Object Store),即可靠自主分布式对象存储层,实现了高可用性和自动化操作的对象存储机制。RADOS负责管理和维护底层物理磁盘上的数据副本,并确保这些副本的一致性和持久性。此外,RADOS还支持动态调整集群配置以适应不同负载情况下的性能需求。 #### librados 库 为了使应用程序可以方便地访问到由RADOS所提供的服务,Ceph设计了一个名为librados的客户端库。无论是哪种类型的上层应用接口——如RBD(块设备)、RGW(网关)还是CephFS(文件系统)——最终都会调用这个共享库来进行实际的数据读写请求处理。 ```python import rados cluster = rados.Rados(conffile='/etc/ceph/ceph.conf') cluster.connect() ioctx = cluster.open_ioctx('my_pool') data_to_write = b'example data' write_size = ioctx.write('object_name', data_to_write) read_data = ioctx.read('object_name') print(read_data.decode()) ioctx.close() cluster.shutdown() ``` #### 数据放置策略 - CRUSH 算法 CRUSH (Controlled Replication Under Scalable Hashing)是一种用于决定如何将数据映射至各个节点位置的方法论。不同于传统哈希表方式,CRUSH考虑到了网络拓扑结构因素,在保证良好随机性的前提下尽可能减少跨机架通信开销;更重要的是,当有新成员加入或旧成员离开时,只需局部重新计算而不会影响全局布局稳定性[^1]。 ### 主要特点 - **高性能**:利用先进的缓存技术和优化过的I/O路径实现快速响应时间; - **可扩展性强**:随着业务增长轻松添加更多服务器资源而不必担心单点瓶颈问题; - **自我修复能力**:一旦检测到故障发生会立即启动恢复流程直至恢复正常状态为止; - **多租户支持**:允许在同一套基础设施之上安全隔离多个独立用户的私密空间; - **丰富的API接口**:除了上述提到的标准协议之外还有RESTful API可供开发者集成第三方工具和服务。 ### 使用场景举例 适用于需要大规模并发读写的云平台环境,比如虚拟化桌面基础架构(VDI),大数据分析框架Hadoop HDFS替代方案,OpenStack Swift兼容的对象存储池等场合。对于那些追求极致性价比的企业级客户而言,采用通用X86架构硬件构建起来的Ceph集群无疑是一个理想的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值