redis数据一致性串行化方案_若何保障mysql和redis之间的数据一致性?(转发)

在高并发的营业场景下,数据库大多数情形都是用户并发接见最微弱的环节。以是,就需要使用redis做一个缓冲操作,让请求先接见到redis,而不是直接接见Mysql等数据库。这样可以大大缓解数据库的压力。Redis缓存数据的加载可以分为懒加载和自动加载两种模式,下面划分先容在这两种模式下的数据一致性若何处置。

懒加载

读取缓存步骤一样平常没有什么问题,然则一旦涉及到数据更新:数据库和缓存更新,就容易泛起缓存和数据库间的数据一致性问题。不管是先写数据库,再删除缓存;照样先删除缓存,再写库,都有可能泛起数据不一致的情形。举个例子:

若是删除了缓存Redis,还没有来得及写库MySQL,另一个线程就来读取,发现缓存为空,则去数据库中读取数据写入缓存,此时缓存中为脏数据。

若是先写了库,在删除缓存前,写库的线程宕机了,没有删除掉缓存,则也会泛起数据不一致情形。

由于写和读是并发的,没法保证顺序,就会泛起缓存和数据库的数据不一致的问题。若何解决?

以是连系前面例子的两种删除情形,我们就思量前后双删加懒加载模式。那么什么是懒加载?就是当营业读取数据的时刻再从存储层加载的模式,而不是更新后自动刷新,它涉及的营业流程如下如所示:

明白了懒加载机制后,连系上面的营业流程图,我们讲解下前后双删若何做?

延迟双删

在写库前后都举行redis.del(key)操作,而且第二次删除通过延迟的方式举行。

方案一(一种思绪,不严谨)详细步骤是:

1)先删除缓存;

2)再写数据库;

3)休眠500毫秒(凭据详细的营业时间来定);

4)再次删除缓存。

那么,这个500毫秒怎么确定的,详细该休眠多久呢?

需要评估自己的项目的读数据营业逻辑的耗时。这么做的目的,就是确保读请求竣事,写请求可以删除读请求造成的缓存脏数据。

固然,这种计谋还要思量 redis 和数据库主从同步的耗时。最后的写数据的休眠时间:则在读数据营业逻辑的耗时的基础上,加上几百ms即可。好比:休眠1秒。

方案二,异步延迟删除:

1)先删除缓存;

2)再写数据库;

3)触发异步写人串行化mq(也可以接纳一种key+version的分布式锁);

4)mq接受再次删除缓存。

异步删除对线上营业无影响,串行化处置保障并发情形下准确删除。

为什么要双删?

db更新分为两个阶段,更新前及更新后,更新前的删除很容易明白,在db更新的过程中由于读取的操作存在并发可能,会泛起缓存重新写入数据,这时就需要更新后的删除。

双删失败若何处置?

1、设置缓存过时时间

从理论上来说,给缓存设置过时时间,是保证最终一致性的解决方案。所有的写操作以数据库为准,只要到达缓存过时时间,则后面的读请求自然会从数据库中读取新值然后回填缓存。

连系双删计谋+缓存超时设置,这样最差的情形就是在超时时间内数据存在不一致。

2、重试方案

重试方案有两种实现,一种在营业层做,另外一种实现中间件负责处置。

营业层实现重试如下:

1)更新数据库数据;

2)缓存由于种种问题删除失败;

3)将需要删除的key发送至新闻行列;

4)自己消费新闻,获得需要删除的key;

5)继续重试删除操作,直到乐成。

然而,该方案有一个瑕玷,对营业线代码造成大量的侵入。于是有了方案二,在方案二中,启动一个订阅程序去订阅数据库的binlog,获得需要操作的数据。在应用程序中,另起一段程序,获得这个订阅程序传来的信息,举行删除缓存操作。

中间件实现重试如下:

流程说明:

1)更新数据库数据;

2)数据库会将操作信息写入binlog日志当中;

3)订阅程序提取出所需要的数据以及key;

4)另起一段非营业代码,获得该信息;

5)实验删除缓存操作,发现删除失败;

6)将这些信息发送至新闻行列;

7)重新从新闻行列中获得该数据,重试操作。

自动加载

自动加载模式就是在db更新的时刻同步或者异步举行缓存更新,常见的模式如下:

写流程:

第一步先删除缓存,删除之后再更新DB,之后再异步将数据刷回缓存。

读流程:

第一步先读缓存,若是缓存没读到,则去读DB,之后再异步将数据刷回缓存。

这种模式简朴易用,然则它有一个致命的瑕玷就是并发会泛起脏数据。

试想一下,同时有多个服务器的多个线程举行’步骤1.2更新DB’,更新DB完成之后,它们就要举行异步刷缓存,我们都知道多服务器的异步操作,是无法保证顺序的,以是后面的刷新操作存在相互笼罩的并发问题,也就是说,存在先更新的DB操作,反而很晚才去刷新缓存,那这个时刻,数据也是错的。

读写并发:再试想一下,服务器A在举行’读操作’,在A服务器刚完成2.2时,服务器B在举行’写操作’,假设B服务器1.3完成之后,服务器A的2.3才被执行,这个时刻就相当于更新前的老数据写入缓存,最终数据照样错的。

而对于这种脏数据的发生归其缘故原由照样在于这种模式的自动刷新缓存属于非幂等操作,那么要解决这个问题怎么办?

前面先容的双删操作方案,由于删除每次操作都是无状态的,以是是幂等的。

将刷新操作串行处置。

这里把基于串行处置的刷新操作方案先容一下:

写流程:

第一步先删除缓存,删除之后再更新DB,我们监听从库(资源少的话主库也ok)的binlog,通过剖析binlog我们剖析出需要需要刷新的数据标识,然后将数据标识写入MQ,接下来就消费MQ,剖析MQ新闻来读库获取响应的数据刷新缓存。

关于MQ串行化,人人可以去领会一下 Kafka partition 机制 ,这里就不详述了。

读流程:

第一步先读缓存,若是缓存没读到,则去读DB,之后再异步将数据标识写入MQ(这里MQ与写流程的MQ是同一个),接下来就消费MQ,剖析MQ新闻来读库获取响应的数据刷新缓存。

总结

懒加载模式缓存可接纳双删+TTL失效来实现;

双删失败情形下可接纳重试措施,重试有营业通过mq重试以及组件消费mysql的binlog再写入mq重试两种方式;

自动加载由于操作自己不具有幂等性,以是需要思量加载的有序性问题,接纳mq的分区机制实现串行化处置,实现缓存和mysql数据的最终一致,此时读和写操作的缓存加载事宜是走的同一个mq。

原文链接:https://zhuanlan.zhihu.com/p/91770135

原文链接:https://www.cnblogs.com/name-lizonglin/p/12696841.html

本站声明:网站内容来源于网络,若有侵权,请联系我们,我们将及时处置。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值