redis缓存架构-读写分离(三)

本文详细介绍Redis通过主从架构实现读写分离,提升读请求QPS至10万以上的方法。涵盖复制流程、数据同步机制、全量及增量复制、心跳与异步复制等核心原理,以及配置与安全认证策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.redis如何通过读写分离来承载读请求QPS超过10万+?

背景:

redis,你要搞高并发的话,不可避免,要把底层的缓存搞得很好

mysql,高并发,做到了,那么也是通过一系列复杂的分库分表,订单系统,事务要求的,QPS到几万,比较高了

所以,单机redis 无法支撑很大的QPS.

 

1.redis主从架构 -> 读写分离架构 -> 可支持水平扩展的读高并发架构

redis replication的核心机制(主从复制)

master -> slave 数据同步时异步的。

(1)redis采用异步方式复制数据到slave节点,不过redis 2.8开始,slave node会周期性地确认自己每次复制的数据量

(2)一个master node是可以配置多个slave node的

(3)slave node也可以连接其他的slave node

(4)slave node做复制的时候,是不会block master node的正常工作的

(5)slave node在做复制的时候,也不会block对自己的查询操作,它会用旧的数据集来提供服务; 但是复制完成的时候,需要删除旧数据集,加载新数据集,这个时候就会暂停对外服务了

(6)slave node主要用来进行横向扩容,做读写分离,扩容的slave node可以提高读的吞吐量

slave,高可用性,有很大的关系

 

1、主从架构的核心原理

1.主从复制

当启动一个slave node的时候,它会发送一个PSYNC命令给master node

如果这是slave node重新连接master node,那么master node仅仅会复制给slave部分缺少的数据(断点续传); 否则如果是slave node第一次连接master node,那么会触发一次full resynchronization

开始full resynchronization(同步)的时候,master会启动一个后台线程,开始生成一份RDB快照文件,同时还会将从客户端收到的所有写命令缓存在内存中。RDB文件生成完毕之后,master会将这个RDB发送给slave,slave会先写入本地磁盘,然后再从本地磁盘加载到内存中。然后master会将内存中缓存的写命令发送给slave,slave也会同步这些数据。

slave node如果跟master node有网络故障,断开了连接,会自动重连。master如果发现有多个slave node都来重新连接,仅仅会启动一个rdb save操作,用一份数据服务所有slave node。

2、主从复制的断点续传

从redis 2.8开始,就支持主从复制的断点续传,如果主从复制过程中,网络连接断掉了,那么可以接着上次复制的地方,继续复制下去,而不是从头开始复制一份

master node会在内存中常见一个backlog,master和slave都会保存一个replica offset还有一个master id,offset就是保存在backlog中的。如果master和slave网络连接断掉了,slave会让master从上次的replica offset开始继续复制

但是如果没有找到对应的offset,那么就会执行一次resynchronization

3、无磁盘化复制

master在内存中直接创建rdb,然后发送给slave,不会在自己本地落地磁盘了

配置:

repl-diskless-sync

repl-diskless-sync-delay,等待一定时长再开始复制,因为要等更多slave重新连接过来

4、过期key处理

slave不会过期key,只会等待master过期key。如果master过期了一个key,或者通过LRU(缓存淘汰算法)淘汰了一个key,那么会模拟一条del命令发送给slave。

 

2、主从复制的完整流程

(1)slave node启动,仅仅保存master node的信息,包括master node的host和ip,但是复制流程没开始

master host和ip是从哪儿来的,redis.conf里面的slaveof 配置的

(2)slave node内部有个定时任务,每秒检查是否有新的master node要连接和复制,如果发现,就跟master node建立socket网络连接

(3)slave node发送ping命令给master node

(4)口令认证,如果master设置了requirepass,那么salve node必须发送masterauth的口令过去进行认证

(5)master node第一次执行全量复制,将所有数据发给slave node

(6)master node后续持续将写命令,异步复制给slave node

 

 

3.数据同步相关的核心机制

指的就是第一次slave连接msater的时候,执行的全量复制,那个过程里面你的一些细节的机制

(1)master和slave都会维护一个offset

master会在自身不断累加offset,slave也会在自身不断累加offset

slave每秒都会上报自己的offset给master,同时master也会保存每个slave的offset

这个倒不是说特定就用在全量复制的,主要是master和slave都要知道各自的数据的offset,才能知道互相之间的数据不一致的情况

(2)backlog

master node有一个backlog,默认是1MB大小

master node给slave node复制数据时,也会将数据在backlog中同步写一份

backlog主要是用来做全量复制中断候的增量复制的

(3)master run_id

info server,可以看到master run_id

如果根据host+ip定位master node,是不靠谱的,如果master node重启或者数据出现了变化,那么slave node应该根据不同的run id区分,run id不同就做全量复制

如果需要不更改run id重启redis,可以使用redis-cli debug reload命令

(4)psync

从节点使用psync从master node进行复制,psync runid offset

master node会根据自身的情况返回响应信息,可能是FULLRESYNC runid offset触发全量复制,可能是CONTINUE触发增量复制

 

4、全量复制

(1)master执行bgsave,在本地生成一份rdb快照文件

(2)master node将rdb快照文件发送给salve node,如果rdb复制时间超过60秒(repl-timeout),那么slave node就会认为复制失败,可以适当调节大这个参数

(3)对于千兆网卡的机器,一般每秒传输100MB,6G文件,很可能超过60s

(4)master node在生成rdb时,会将所有新的写命令缓存在内存中,在salve node保存了rdb之后,再将新的写命令复制给salve node

(5)client-output-buffer-limit slave 256MB 64MB 60(配置),如果在复制期间,内存缓冲区持续消耗超过64MB,或者一次性超过256MB,那么停止复制,复制失败

(6)slave node接收到rdb之后,清空自己的旧数据,然后重新加载rdb到自己的内存中,同时基于旧的数据版本对外提供服务

(7)如果slave node开启了AOF,那么会立即执行BGREWRITEAOF,重写AOFrdb生成、rdb通过网络拷贝、slave旧数据的清理、slave aof rewrite,很耗费时间

 

如果复制的数据量在4G~6G之间,那么很可能全量复制时间消耗到1分半到2分钟

 

5、增量复制

(1)如果全量复制过程中,master-slave网络连接断掉,那么salve重新连接master时,会触发增量复制

(2)master直接从自己的backlog中获取部分丢失的数据,发送给slave node,默认backlog就是1MB

(3)msater就是根据slave发送的psync中的offset来从backlog中获取数据的

 

6、heartbeat(心跳)

主从节点互相都会发送heartbeat信息

master默认每隔10秒发送一次heartbeat,salve node每隔1秒发送一个heartbeat

 

7、异步复制

master每次接收到写命令之后,现在内部写入数据,然后异步发送给slave node

 

8.主从架构搭建 (一主一从)

(1).启用复制,部署slave node

wget http://downloads.sourceforge.net/tcl/tcl8.6.1-src.tar.gz

tar -xzvf tcl8.6.1-src.tar.gz

cd /usr/local/tcl8.6.1/unix/

./configure  

make && make install

 

使用redis-3.2.8.tar.gz(截止2017年4月的最新稳定版)

tar -zxvf redis-3.2.8.tar.gz

cd redis-3.2.8

make && make test && make install (如果执行报错则 cd redis-3.2.8/src 执行 make install)

 

(1)redis utils目录下,有个redis_init_script脚本

(2)将redis_init_script脚本拷贝到linux的/etc/init.d目录中,将redis_init_script重命名为redis_6379,6379是我们希望这个redis实例监听的端口号

(3)修改redis_6379脚本的第6行的REDISPORT,设置为相同的端口号(默认就是6379)

(4)创建两个目录:/etc/redis(存放redis的配置文件),/var/redis/6379(存放redis的持久化文件)

(5)修改redis配置文件(默认在根目录下,redis.conf),拷贝到/etc/redis目录中,修改名称为6379.conf

 

(6)修改redis.conf中的部分配置为生产环境

 

daemonize yes 让redis以daemon进程运行

pidfile /var/run/redis_6379.pid 设置redis的pid文件位置

port 6379 设置redis的监听端口号

dir /var/redis/6379 设置持久化文件的存储位置

 

(7)让redis跟随系统启动自动启动

 

在redis_6379脚本中,最上面,加入两行注释

# chkconfig:  2345 90 10

# description: Redis is a persistent key-value database

 

执行命令

chkconfig redis_6379 on

 

配置文件6379.conf (从节点配置)

在slave node上配置:slaveof eshop-cache01 6379,即可

也可以使用slaveof命令

 

(2),强制读写分离

基于主从复制架构,实现读写分离

redis slave node只读,默认开启,slave-read-only

开启了只读的redis slave node,会拒绝所有的写操作,这样可以强制搭建成读写分离的架构

(3),集群安全认证

配置slave 安全认证(3679.cof)

masterauth redis-pass

配置master上启用安全认证,

requirepass redis-pass

配置安全认证后:

关闭redis : redis-cli -a "密码" shoudown

启动: ./redis_6379 start

master需要设置密码 127.0.0.1:6379> auth "密码"

(4),修改配置

bind 127.0.0.1 ->本地开发测试模式,就只能127.0.0.1本地才能访问到6379的端口号

集群环境下需要修改

每个redis.conf 中的bind 127.0.0.1 -> bind 自己的ip地址

在每个节点上都开放点开6379

iptables -A INPUT -ptcp --dport 6379 -j ACCEPT

连接客户端 redis-cli -h ip地址

执行命令查看自己的角色 info replication

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值