redis如何通过读写分离来承载读请求QPS超过10万+?
架构做成主从架构,一主多从,主负责写,并且将数据同步复制到其他的slave节点,从节点负责读,所有的读请求全部走从节点
master持久化对于主从架构的安全保障的意义
如果采用了主从架构,那么建议必须开启master node的持久化!
1.sentinal还没有检测到master failure,master node就自动重启了,如果没有持久化,master就会将空的数据集同步到slave上去,所有slave的数据全部清空
2.master数据需要有备份方案,万一本地的所有文件丢失了; 从备份中挑选一份rdb去恢复master; 这样才能确保master启动的时候,是有数据的
Redis主从同步原理:
1 全量同步:
master会启动一个后台线程,开始生成一份RDB快照文件,同时还会将从客户端收到的所有写命令缓存在内存中。
RDB文件生成完毕之后,master会将这个RDB发送给slave,slave会先写入本地磁盘,然后再从本地磁盘加载到内存中。
然后master会将内存中缓存的写命令发送给slave,slave也会同步这些数据。
2 增量同步:
主服务器每执行一个写命令就会异步向从服务器发送相同的写命令,从服务器接收并执行收到的写命令。
3 Redis主从同步策略
主从刚刚连接的时候,进行全量同步;全同步结束后,进行增量同步。
redis 策略是,无论如何,首先会尝试进行增量同步,如不成功,要求从机进行全量同步;
从redis 2.8开始,就支持主从复制的断点续传,slave如果跟master有网络故障,断开了连接,会自动重连,master仅仅会复制给slave部分缺少的数据;
master如果发现有多个slave都来重新连接,仅仅会启动一个rdb save操作,用一份数据服务所有slave节点。
4 注意事项
master将rdb快照文件发送给salve,如果rdb复制时间超过60秒(repl-timeout),那么slave就会认为复制失败,可以适当调节大这个参数
client-output-buffer-limit slave 256MB 64MB 60,如果在复制期间,内存缓冲区持续消耗超过64MB,或者一次性超过256MB,那么停止复制,复制失败
如果slave node开启了AOF,那么会立即执行BGREWRITEAOF,重写AOF
rdb生成、rdb通过网络拷贝、slave旧数据的清理、slave aof rewrite,很耗费时间,如果复制的数据量在4G~6G之间,那么很可能全量复制时间消耗到1分半到2分钟
主从复制的断点续传原理:
master会在自身不断累加offset,slave也会在自身不断累加offset,slave每秒都会上报自己的offset给master,同时master也会保存每个slave的offset
master会在内存中创建一个backlog,master给slave复制数据时,也会将数据在backlog中同步写一份。如果master和slave网络连接断掉了,slave会让master从上次的replica offset开始继续复制,如果没有找到对应的offset,那么就会执行一次全量同步。
backlog(默认1Mb)主要是用来做全量复制中断候的增量复制的
无磁盘化复制:
master在内存中直接创建rdb,然后发送给slave,不会在自己本地落地磁盘了
repl-diskless-sync yes :开启无磁盘化复制
repl-diskless-sync-delay:等待一定时长再开始复制,因为要等更多slave重新连接过来
过期key处理:
slave不会过期key,只会等待master过期key。如果master过期了一个key,或者通过LRU淘汰了一个key,那么会模拟一条del命令发送给slave。
master run_id:
info server,可以看到master run id
rdb的冷备,直接取到20个小时之前的一个rdb的备份,然后恢复到master中,此时master中的数据完全不一样并且run_id发生了变化,那么slave node应该根据不同的run id区分,run id不同就做全量复制
如果需要不更改run id重启redis,可以使用redis-cli debug reload命令
什么是99.99%高可用?
在365天 * 99.99%的时间内,你的系统都是可以哗哗对外提供服务的,那就是高可用性,99.99%
在master故障时,自动检测并且将某个slave节点自动切换为master节点的过程,叫做主备切换。
这个过程实现了redis主从架构下的高可用
哨兵:监控redis的运行状况
主要功能:
1.监控主数据库和从数据库是否正常运行
2.主数据库出现故障时,可以自动将从数据库转换为主数据库
3.如果故障转移发生了,通知client客户端新的master地址
4.如果某个redis实例有故障,那么哨兵负责发送消息作为报警通知给管理员
哨兵至少需要3个实例,来保证自己的健壮性
哨兵 + redis主从的部署架构,是不会保证数据零丢失的,只能保证redis集群的高可用性
sdown和odown
sdown是主观宕机,就一个哨兵如果自己觉得一个master宕机了,那么就是主观宕机
odown是客观宕机,如果quorum数量的哨兵都觉得一个master宕机了,那么就是客观宕机
sdown达成的条件:如果一个哨兵ping一个master,超过了is-master-down-after-milliseconds指定的毫秒数之后,就主观认为master宕机
sdown到odown转换:如果一个哨兵在指定时间内,收到了quorum指定数量的其他哨兵也认为那个master是sdown了,那么就认为是odown了,客观认为master宕机
quorum和majority
quorum(法定人数):确认odown的最少的哨兵数量
majority(大多数):授权进行主从切换的最少的哨兵数量
每次一个哨兵要做主备切换,首先需要quorum数量的哨兵认为odown,然后选举出一个哨兵来做切换,这个哨兵还得得到majority哨兵的授权,才能正式执行切换
为什么redis哨兵集群只有2个节点无法正常工作?
±—+ ±—+
| M1 |---------| R1 |
| S1 | | S2 |
±—+ ±—+
Configuration: quorum = 1
master宕机,s1和s2中只要有1个哨兵认为master宕机就可以还行切换,同时s1和s2中会选举出一个哨兵来执行故障转移
同时这个时候,需要majority,也就是大多数哨兵都是运行的,2个哨兵的majority就是2(2的majority=2,3的majority=2,4的majority=2,5的majority=3),2个哨兵都运行着,就可以允许执行故障转移
但是如果整个M1和S1运行的机器宕机了,那么哨兵只有1个了,此时就没有majority来允许执行故障转移,虽然另外一台机器还有一个R1,但是故障转移不会执行
经典的3节点哨兵集群
±—+
| M1 |
| S1 |
±—+
|
±—+ | ±—+
| R2 |----±—| R3 |
| S2 | | S3 |
±—+ ±—+
Configuration: quorum = 2,majority=2
如果M1所在机器宕机了,那么三个哨兵还剩下2个,S2和S3可以一致认为master宕机,然后选举出一个来执行故障转移
同时3个哨兵的majority是2,所以还剩下的2个哨兵运行着,就可以允许执行故障转移
redis哨兵主备切换的数据丢失问题:
1.异步复制导致的数据丢失
因为master -> slave的复制是异步的,所以可能有部分数据还没复制到slave,master就宕机了,此时这部分数据就丢失了
2.脑裂导致的数据丢失
某个master所在机器突然脱离了正常的网络,跟其他slave机器不能连接,但是实际上master还运行着,此时哨兵可能就会认为master宕机了,然后开启选举,将其他slave切换成了master。这个时候,集群里就会有两个master,也就是所谓的脑裂。此时虽然某个slave被切换成了master,但是可能client还没来得及切换到新的master,还继续写向旧master的数据可能也丢失了,因此旧master再次恢复的时候,会被作为一个slave挂到新的master上去,自己的数据会清空,重新从新的master复制数据
解决异步复制和脑裂导致的数据丢失:
min-slaves-to-write N
min-slaves-max-lag 10
slave的数量少于N个,或者N个从服务器的延迟值都大于或等于10秒时,主服务器将拒绝执行写命令
上面两个配置可以减少异步复制和脑裂导致的数据丢失
1 减少异步复制的数据丢失
有了min-slaves-max-lag这个配置,就可以确保说,一旦slave复制数据和ack延时太长,就认为可能master宕机后损失的数据太多了,那么就拒绝写请求,这样可以把master宕机时由于部分数据未同步到slave导致的数据丢失降低的可控范围内
2 减少脑裂的数据丢失
如果一个master出现了脑裂,跟其他slave丢了连接,那么上面两个配置可以确保说,如果不能继续给指定数量的slave发送数据,而且slave超过10秒没有给自己ack消息,那么就直接拒绝客户端的写请求
这样脑裂后的旧master就不会接受client的新数据,也就避免了数据丢失
上面的配置就确保了,如果跟任何一个slave丢了连接,在10秒后发现没有slave给自己ack,那么就拒绝新的写请求
因此在脑裂场景下,最多就丢失10秒的数据
如果master拒绝新的写请求,client如何处理?
1.client将数据临时写入MQ中,每隔10分钟去队列里面取一次数据,尝试重新发回master
2.在client做降级,写到本地磁盘里面,在client对外接受请求再做降级、限流,减慢请求涌入的速度
哨兵集群的自动发现机制:
哨兵互相之间的发现,是通过redis的pub/sub系统实现的,每个哨兵都会往__sentinel__:hello这个channel里发送一个消息,这时候所有其他哨兵都可以消费到这个消息,并感知到其他的哨兵的存在
每隔两秒钟,每个哨兵都会往自己监控的某个master+slaves对应的__sentinel__:hello channel里发送一个消息,内容是自己的host、ip和runid还有对这个master的监控配置
每个哨兵也会去监听自己监控的每个master+slaves对应的__sentinel__:hello channel,然后去感知到同样在监听这个master+slaves的其他哨兵的存在
每个哨兵还会跟其他哨兵交换对master的监控配置,互相进行监控配置的同步
slave->master选举算法:
如果一个master被认为odown了,而且majority哨兵都允许了主备切换,那么某个哨兵就会执行主备切换操作,此时首先要选举一个slave来,会考虑slave的一些信息
1 跟master断开连接的时长
2 slave优先级
3 复制offset
4 run id
如果一个slave跟master断开连接已经超过了down-after-milliseconds的10倍,外加master宕机的时长,那么slave就被认为不适合选举为master:(down-after-milliseconds * 10) + milliseconds_since_master_is_in_SDOWN_state
接下来会对slave进行排序:
1.按照slave优先级进行排序,slave priority越低,优先级就越高
2.如果slave priority相同,那么看replica offset,哪个slave复制了越多的数据,offset越靠后,优先级就越高
3.如果上面两个条件都相同,那么选择一个run id比较小的那个slave
slave配置的自动纠正:
哨兵会负责自动纠正slave的一些配置,比如slave如果要成为潜在的master候选人,哨兵会确保slave在复制现有master的数据; 如果slave连接到了一个错误的master上,比如故障转移之后,那么哨兵会确保它们连接到正确的master上
configuration epoch:
哨兵会对一套redis master+slave进行监控,有相应的监控的配置
执行切换的那个哨兵,会从要切换到的新master(salve->master)那里得到一个configuration epoch,这就是一个version号,每次切换的version号都必须是唯一的
如果第一个选举出的哨兵切换失败了,那么其他哨兵,会等待failover-timeout时间,然后接替继续执行切换,此时会重新获取一个新的configuration epoch,作为新的version号
configuraiton传播:
哨兵完成切换之后,会在自己本地更新生成最新的master配置,然后同步给其他的哨兵,就是通过之前说的pub/sub消息机制
这里之前的version号就很重要了,因为各种消息都是通过一个channel去发布和监听的,所以一个哨兵完成一次新的切换之后,新的master配置是跟着新的version号的
其他的哨兵都是根据版本号的大小来更新自己的master配置的
哨兵机制是有缺点的:
1.主从服务器的数据要经常进行主从复制,这样造成性能下降。
2.当主服务器宕机后,从服务器切换成主服务器的那段时间,服务是不能用的