RBD和AOF持久化对比

本文对比了Redis的RDB和AOF持久化机制,深入探讨了两者的优势、劣势以及适用场景。RDB机制通过定期快照方式实现数据持久化,适合对数据丢失容忍度较高的场景;而AOF机制则通过日志追加方式记录每次写命令,提供更高的数据保护能力,但文件体积较大,处理速度稍慢。

RDB和AOF持久化对比

Redis提供了RDB持久化和AOF持久化,本篇文章中将会对这两种机制进行一些对比

RDB机制的优势和略施

RDB持久化是指在指定的时间间隔内将内存中的数据集快照写入磁盘。 也是默认的持久化方式,这种方式是就是将内存中数据以快照的方式写入到二进制文件中,默认的文件名为dump.rdb。

可以通过配置设置自动做快照持久化的方式。我们可以配置redis在n秒内如果超过m个key被修改就自动做快照,下面是默认的快照保存配置

   save 900 1  #900秒内如果超过1个key被修改,则发起快照保存
   save 300 10 #300秒内容如超过10个key被修改,则发起快照保存
   save 60 10000

RDB文件保存过程

  • redis调用fork,现在有了子进程和父进程。
  • 父进程继续处理client请求,子进程负责将内存内容写入到临时文件。由于os的写时复制机制(copy on write)父子进程会共享相同的物理页面,当父进程处理写请求时os会为父进程要修改的页面创建副本,而不是写共享的页面。所以子进程的地址空间内的数 据是fork时刻整个数据库的一个快照。
  • 当子进程将快照写入临时文件完毕后,用临时文件替换原来的快照文件,然后子进程退出。

client 也可以使用save或者bgsave命令通知redis做一次快照持久化。save操作是在主线程中保存快照的,由于redis是用一个主线程来处理所有 client的请求,这种方式会阻塞所有client请求。所以不推荐使用。

另一点需要注意的是,每次快照持久化都是将内存数据完整写入到磁盘一次,并不 是增量的只同步脏数据。如果数据量大的话,而且写操作比较多,必然会引起大量的磁盘io操作,可能会严重影响性能。

优势

  • 一旦采用该方式,那么你的整个Redis数据库将只包含一个文件,这样非常方便进行备份。比如你可能打算没1天归档一些数据。
  • 方便备份,我们可以很容易的将一个一个RDB文件移动到其他的存储介质上
  • RDB 在恢复大数据集时的速度比 AOF 的恢复速度要快。
  • RDB 可以最大化 Redis 的性能:父进程在保存 RDB 文件时唯一要做的就是 fork 出一个子进程,然后这个子进程就会处理接下来的所有保存工作,父进程无须执行任何磁盘 I/O 操作。

劣势

  • 如果你需要尽量避免在服务器故障时丢失数据,那么 RDB 不适合你。 虽然 Redis 允许你设置不同的保存点(save point)来控制保存 RDB 文件的频率, 但是, 因为RDB 文件需要保存整个数据集的状态, 所以它并不是一个轻松的操作。 因此你可能会至少 5 分钟才保存一次 RDB 文件。 在这种情况下, 一旦发生故障停机, 你就可能会丢失好几分钟的数据。
  • 每次保存 RDB 的时候,Redis 都要 fork() 出一个子进程,并由子进程来进行实际的持久化工作。 在数据集比较庞大时, fork() 可能会非常耗时,造成服务器在某某毫秒内停止处理客户端; 如果数据集非常巨大,并且 CPU 时间非常紧张的话,那么这种停止时间甚至可能会长达整整一秒。 虽然 AOF 重写也需要进行 fork() ,但无论 AOF 重写的执行间隔有多长,数据的耐久性都不会有任何损失。

AOF文件保存过程

redis会将每一个收到的写命令都通过write函数追加到文件中(默认是 appendonly.aof)。

当redis重启时会通过重新执行文件中保存的写命令来在内存中重建整个数据库的内容。当然由于os会在内核中缓存 write做的修改,所以可能不是立即写到磁盘上。这样aof方式的持久化也还是有可能会丢失部分修改。不过我们可以通过配置文件告诉redis我们想要 通过fsync函数强制os写入到磁盘的时机。有三种方式如下(默认是:每秒fsync一次)

appendonly yes              //启用aof持久化方式
# appendfsync always      //每次收到写命令就立即强制写入磁盘,最慢的,但是保证完全的持久化,不推荐使用
appendfsync everysec     //每秒钟强制写入磁盘一次,在性能和持久化方面做了很好的折中,推荐
# appendfsync no    //完全依赖os,性能最好,持久化没保证

aof 的方式也同时带来了另一个问题。持久化文件会变的越来越大。例如我们调用incr test命令100次,文件中必须保存全部的100条命令,其实有99条都是多余的。因为要恢复数据库的状态其实文件中保存一条set test 100就够了。

为了压缩aof的持久化文件。redis提供了bgrewriteaof命令。收到此命令redis将使用与快照类似的方式将内存中的数据 以命令的方式保存到临时文件中,最后替换原来的文件。具体过程如下

  • redis调用fork ,现在有父子两个进程
  • 子进程根据内存中的数据库快照,往临时文件中写入重建数据库状态的命令
  • 父进程继续处理client请求,除了把写命令写入到原来的aof文件中。同时把收到的写命令缓存起来。这样就能保证如果子进程重写失败的话并不会出问题。
  • 当子进程把快照内容写入已命令方式写到临时文件中后,子进程发信号通知父进程。然后父进程把缓存的写命令也写入到临时文件。
  • 现在父进程可以使用临时文件替换老的aof文件,并重命名,后面收到的写命令也开始往新的aof文件中追加。

需要注意到是重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似。

优势

  • 使用 AOF 持久化会让 Redis 变得非常耐久(much more durable):你可以设置不同的 fsync 策略,比如无 fsync ,每秒钟一次 fsync ,或者每次执行写入命令时 fsync 。 AOF 的默认策略为每秒钟 fsync 一次,在这种配置下,Redis 仍然可以保持良好的性能,并且就算发生故障停机,也最多只会丢失一秒钟的数据( fsync 会在后台线程执行,所以主线程可以继续努力地处理命令请求)。

  • AOF 文件是一个只进行追加操作的日志文件(append only log), 因此对 AOF 文件的写入不需要进行 seek , 即使日志因为某些原因而包含了未写入完整的命令(比如写入时磁盘已满,写入中途停机,等等), redis-check-aof 工具也可以轻易地修复这种问题。
    Redis 可以在 AOF 文件体积变得过大时,自动地在后台对 AOF 进行重写: 重写后的新 AOF 文件包含了恢复当前数据集所需的最小命令集合。 整个重写操作是绝对安全的,因为 Redis 在创建新 AOF 文件的过程中,会继续将命令追加到现有的 AOF 文件里面,即使重写过程中发生停机,现有的 AOF 文件也不会丢失。 而一旦新 AOF 文件创建完毕,Redis 就会从旧 AOF 文件切换到新 AOF 文件,并开始对新 AOF 文件进行追加操作。

  • AOF 文件有序地保存了对数据库执行的所有写入操作, 这些写入操作以 Redis 协议的格式保存, 因此 AOF 文件的内容非常容易被人读懂, 对文件进行分析(parse)也很轻松。 导出(export) AOF 文件也非常简单: 举个例子, 如果你不小心执行了 FLUSHALL 命令, 但只要 AOF 文件未被重写, 那么只要停止服务器, 移除 AOF 文件末尾的 FLUSHALL 命令, 并重启 Redis , 就可以将数据集恢复到 FLUSHALL 执行之前的状态。

劣势

  • 对于相同的数据集来说,AOF 文件的体积通常要大于 RDB 文件的体积。

  • 根据所使用的 fsync 策略,AOF 的速度可能会慢于 RDB 。 在一般情况下, 每秒 fsync 的性能依然非常高, 而关闭 fsync 可以让 AOF 的速度和 RDB 一样快, 即使在高负荷之下也是如此。 不过在处理巨大的写入载入时,RDB 可以提供更有保证的最大延迟时间(latency)。

  • AOF 在过去曾经发生过这样的 bug : 因为个别命令的原因,导致 AOF 文件在重新载入时,无法将数据集恢复成保存时的原样。 (举个例子,阻塞命令 BRPOPLPUSH 就曾经引起过这样的 bug 。) 测试套件里为这种情况添加了测试: 它们会自动生成随机的、复杂的数据集, 并通过重新载入这些数据来确保一切正常。 虽然这种 bug 在 AOF 文件中并不常见, 但是对比来说, RDB 几乎是不可能出现这种 bug 的。

抉择

一般来说, 如果想达到足以媲美 PostgreSQL 的数据安全性, 你应该同时使用两种持久化功能。

如果你非常关心你的数据, 但仍然可以承受数分钟以内的数据丢失, 那么你可以只使用 RDB 持久化。

其余情况我个人喜好选择AOF


转载:http://www.cnblogs.com/rollenholt/p/3874443.html

<think> 我们正在讨论Ceph RBD实现数据持久化存储的方法。根据用户的问题,他想要了解如何使用Ceph RBD来实现数据持久化存储。Ceph RBD(RADOS Block Device)是Ceph提供的块存储服务,允许用户创建块设备并挂载到服务器上,从而实现数据的持久化存储。 步骤概述: 1. 部署Ceph集群:这是使用RBD的前提,需要至少包含Monitor节点、OSD节点MDS节点(如果使用CephFS的话,但RBD不需要MDS)。 2. 创建存储池(Pool):在Ceph集群中创建一个存储池,用于存放RBD镜像。 3. 创建RBD镜像:在存储池中创建指定大小的块设备镜像。 4. 映射RBD镜像到客户端:将创建的块设备映射到客户端服务器,使其在客户端上显示为一个块设备(如/dev/rbd0)。 5. 格式化并挂载:在客户端上对块设备进行格式化(如mkfs)并挂载到目录,然后就可以像使用本地磁盘一样使用它。 详细步骤: 1. 部署Ceph集群(简要说明,因为这是一个复杂的过程,通常有详细文档) 通常使用cephadm或手动部署。这里假设已经部署好一个Ceph集群,并且集群状态健康(通过`ceph -s`查看)。 2. 创建存储池 使用ceph命令创建一个存储池,比如名为`rbd_pool`的池: ```bash ceph osd pool create rbd_pool 128 128 ``` 这里128是PGPGP的数量,具体值需要根据集群规模调整。 然后,将该池初始化为用于RBD: ```bash rbd pool init rbd_pool ``` 3. 创建RBD镜像 在`rbd_pool`中创建一个名为`myimage`、大小为10GB的镜像: ```bash rbd create --size 10240 rbd_pool/myimage ``` 4. 映射RBD镜像到客户端 在客户端机器上(需要安装ceph-common包),首先需要配置ceph.conf文件密钥文件(通常位于/etc/ceph目录下),以便客户端能够访问Ceph集群。 然后,映射镜像: ```bash rbd map rbd_pool/myimage ``` 执行成功后,客户端会多出一个块设备(可以通过`rbd showmapped`查看映射的设备,通常为/dev/rbd0)。 5. 格式化并挂载 格式化该块设备(例如使用ext4文件系统): ```bash mkfs.ext4 /dev/rbd0 ``` 创建挂载点并挂载: ```bash mkdir /mnt/ceph_rbd mount /dev/rbd0 /mnt/ceph_rbd ``` 这样,就可以在/mnt/ceph_rbd目录下进行文件操作,所有数据都会持久化存储在Ceph集群中。 6. 自动挂载(可选) 为了实现开机自动挂载,可以将映射挂载命令添加到系统的启动脚本中,或者配置udev规则。但更常见的做法是在挂载前先映射,然后使用/etc/fstab挂载。但是注意,RBD设备在重启后不会自动映射,所以需要先映射再挂载。 例如,可以在/etc/fstab中添加: ``` /dev/rbd0 /mnt/ceph_rbd ext4 defaults,noatime,_netdev 0 0 ``` 同时需要确保在系统启动时执行映射命令。可以创建一个服务或者在启动脚本中执行`rbd map`命令。 7. 持久化存储的保证 Ceph通过多副本或纠删码机制保证数据的持久性。在创建存储池时可以设置副本数(默认3副本)或纠删码策略。 8. 快照克隆(可选) RBD支持快照克隆功能,可以用于数据备份快速复制。 注意事项: - 客户端需要安装ceph-common包。 - 客户端需要拥有访问Ceph集群的权限(通常需要将ceph.client.admin.keyring文件复制到客户端的/etc/ceph目录,或者创建一个专用的用户并赋予权限)。 - 在分布式环境中,多个客户端同时挂载同一个RBD镜像需要借助集群文件系统(如cephfs、gfs2等),否则会导致文件系统损坏。RBD本身支持独占式写入(exclusive-lock)缓存特性,但多客户端同时读写同一块设备需要谨慎。 以上是使用Ceph RBD实现数据持久化存储的基本方法。 </think> ### 如何使用 Ceph RBD 实现数据持久化存储 Ceph RBD(RADOS Block Device)提供块级存储接口,通过以下步骤实现数据持久化存储: --- #### **1. 准备工作** - **部署 Ceph 集群** 需包含 Monitor、OSD(对象存储守护进程 MDS(元数据服务器)节点[^1]。 - **安装客户端工具** 在目标服务器安装 `ceph-common` 包: ```bash sudo apt-get install ceph-common # Ubuntu/Debian sudo yum install ceph-common # CentOS/RHEL ``` --- #### **2. 配置 RBD 存储池** ```bash # 创建存储池(例如 rbd_pool) ceph osd pool create rbd_pool 128 128 # 初始化池为 RBD 用途 rbd pool init rbd_pool # 创建 RBD 镜像(10GB 大小) rbd create rbd_pool/myvolume --size 10240 ``` --- #### **3. 客户端映射与挂载** ```bash # 将 RBD 镜像映射为本地块设备 rbd map rbd_pool/myvolume # 查看映射结果(通常为 /dev/rbd0) lsblk # 格式化设备 mkfs.ext4 /dev/rbd0 # 创建挂载点并挂载 mkdir /mnt/ceph_data mount /dev/rbd0 /mnt/ceph_data ``` --- #### **4. 实现开机自动挂载** ```bash # 生成自动映射配置 echo "rbd_pool/myvolume id=admin,keyring=/etc/ceph/ceph.client.admin.keyring" | \ sudo tee /etc/ceph/rbdmap # 添加 fstab 条目 echo "/dev/rbd0 /mnt/ceph_data ext4 defaults,_netdev 0 0" | sudo tee -a /etc/fstab ``` --- #### **5. 数据持久化验证** ```bash # 写入测试数据 echo "Ceph RBD Test" > /mnt/ceph_data/test.txt # 重启服务器后检查数据 reboot cat /mnt/ceph_data/test.txt # 应输出 "Ceph RBD Test" ``` --- #### **关键技术原理** 1. **数据分布** 数据通过 CRUSH 算法分散到集群 OSD 节点,实现负载均衡高可用性[^2]。 2. **副本机制** 默认 3 副本存储(可配置),确保单点故障不影响数据完整性: $$ \text{写入操作} \rightarrow \text{Primary OSD} \xrightarrow{\text{同步}} \text{Replica OSDs} $$ 3. **故障恢复** OSD 故障时自动触发数据重平衡,无需人工干预[^3]。 --- #### **高级配置示例** ```bash # 启用 RBD 缓存(提升性能) rbd feature enable rbd_pool/myvolume exclusive-lock,caching # 创建快照(备份时间点状态) rbd snap create rbd_pool/myvolume@snap_v1 # 克隆卷(基于快照创建新卷) rbd clone rbd_pool/myvolume@snap_v1 rbd_pool/cloned_volume ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值