redis缓存和数据库数据不一致、缓存穿透解决方案

本文探讨了Redis缓存和数据库双写一致性问题,包括先更新数据库再更新缓存、先删除缓存再更新数据库、先更新数据库再删除缓存三种策略,分析了各自的优缺点和可能的并发问题。同时,提出了缓存穿透问题及其解决方案,如使用互斥锁和布隆过滤器防止恶意请求导致数据库压力过大。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

缓存和数据库双写一致性问题

讨论三种更新策略:

先更新数据库,再更新缓存
先删除缓存,再更新数据库
先更新数据库,再删除缓存

(1)先更新数据库,再更新缓存

这套方案,大家是普遍反对的。为什么呢?有如下两点原因。
原因一(线程安全角度)
同时有请求A和请求B进行更新操作,那么会出现
(1)线程A更新了数据库
(2)线程B更新了数据库
(3)线程B更新了缓存
(4)线程A更新了缓存
这就出现请求A更新缓存应该比请求B更新缓存早才对,但是因为网络等原因,B却比A更早更新了缓存。这就导致了脏数据,因此不考虑。
原因二(业务场景角度)
有如下两点:
(1)如果你是一个写数据库场景比较多,而读数据场景比较少的业务需求,采用这种方案就会导致,数据压根还没读到,缓存就被频繁的更新,浪费性能。
(2)如果你写入数据库的值,并不是直接写入缓存的,而是要经过一系列复杂的计算再写入缓存。那么,每次写入数据库后,都再次计算写入缓存的值,无疑是浪费性能的。显然,删除缓存更为适合。
接下来讨论的就是争议最大的,先删缓存,再更新数据库。还是先更新数据库,再删缓存的问题。
(2)先删缓存,再更新数据库
该方案会导致不一致的原因是。同时有一个请求A进行更新操作,另一个请求B进行查询操作。那么会出现如下情形:
(1)请求A进行写操作,删除缓存
(2)请求B查询发现缓存不存在
(3)请求B去数据库查询得到旧值
(4)请求B将旧值写入缓存
(5)请求A将新值写入数据库
上述情况就会导致不一致的情形出现。而且,如果不采用给缓存设置过期时间策略,该数据永远都是脏数据。
那么,如何解决呢?采用延时双删策略
伪代码如下

public void write(String key,Object data){
redis.delKey(key);
db.updateData(data);
Thread.sleep(1000);
redis.delKey(key); }

转化为中文描述就是

(1)先淘汰缓存
(2)再写数据库(这两步和原来一样)
(3)休眠1秒,再次淘汰缓存
这么做,可以将1秒内所造成的缓存脏数据,再次删除。
那么,这个1秒怎么确定的,具体该休眠多久呢?

针对上面的情形,读者应该自行评估自己的项目的读数据业务逻辑的耗时。然后写数据的休眠时间则在读数据业务逻辑的耗时基础上,加几百ms即可。这么做的目的,就是确保读请求结束,写请求可以删除读请求造成的缓存脏数据。
(3)先更新数据库,再删缓存

首先,先说一下。老外提出了一个缓存更新套路,名为《Cache-Aside pattern》。其中就指出

失效:应用程序先从cache取数据,没有得到,则从数据库中取数据,成功后,放到缓存中。

命中:应用程序从cache中取数据,取到后返回。

更新:先把数据存到数据库中,成功后,再让缓存失效。

另外,知名社交网站facebook也在论文《Scaling Memcache at Facebook》中提出,他们用的也是先更新数据库,再删缓存的策略。

这种情况不存在并发问题么?

不是的。假设这会有两个请求,一个请求A做查询操作,一个请求B做更新操作,那么会有如下情形产生
(1)缓存刚好失效
(2)请求A查询数据库,得一个旧值
(3)请求B将新值写入数据库
(4)请求B删除缓存
(5)请求A将查到的旧值写入缓存

ok,如果发生上述情况,确实是会发生脏数据。
然而,发生这种情况的概率又有多少呢?
发生上述情况有一个先天性条件,就是步骤(3)的写数据库操作比步骤(2)的读数据库操作耗时更短,才有可能使得步骤(4)先于步骤(5)。可是,大家想想,数据库的读操作的速度远快于写操作的(不然做读写分离干嘛,做读写分离的意义就是因为读操作比较快,耗资源少),因此步骤(3)耗时比步骤(2)更短,这一情形很难出现。
假设,有人非要抬杠,有强迫症,一定要解决怎么办?
如何解决上述并发问题?
首先,给缓存设有效时间是一种方案。其次,采用策略(2)里给出的异步延时删除策略,保证读请求完成以后,再进行删除操作。

缓存穿透

缓存击穿表示恶意用户模拟请求很多缓存中不存在的数据,由于缓存中都没有,导致这些请求短时间内直接落在了数据库上,导致数据库异常。这个我们在实际项目就遇到了,有些抢购活动、秒杀活动的接口API被大量的恶意用户刷,导致短时间内数据库宕机了,好在数据库是多主多从的,hold住了。

解决方案的话:

1、使用互斥锁排队

业界比价普遍的一种做法,即根据key获取value值为空时,锁上,从数据库中load数据后再释放锁。若其它线程获取锁失败,则等待一段时间后重试。这里要注意,分布式环境中要使用分布式锁,单机的话用普通的锁(synchronized、Lock)就够了。

public String getWithLock(DistributedLock lock, String key , String
lockKey, long expireTime) { // 通过key获取value String value =
(String) redisTemplate.opsForValue().get(key);
if(StringUtils.isEmpty(value)) {
//封装的tryDistributedLock包括setnx和expire两个功能,在低版本的redis中不支持 try{
boolean isLock = lock.lock(lockKey, expireTime);
if(isLock) {
value = userService.getById(key);
redisTemplate.opsForValue().set(key, value);
lock.unlock(lockKey, expireTime+"");
return value;
}else{
// 其它线程进来了没获取到锁便等待50ms后重试
Thread.sleep(50);
getWithLock(lock, key, lockKey, expireTime);
} }catch(Exception e) {
logger.error(“getWithLock exception=”+ e);
return value; }finally{
lock.unlock(lockKey, expireTime+""); }

  } 		return value; 	}

这样做思路比较清晰,也从一定程度上减轻数据库压力,但是锁机制使得逻辑的复杂度增加,吞吐量也降低了,有点治标不治本。

2、布隆过滤器(推荐)

BloomFilter就类似于一个hash
set,用于快速判某个元素是否存在于集合中,其典型的应用场景就是快速判断一个key是否存在于某容器,不存在就直接返回。布隆过滤器的关键就在于hash算法和容器大小,下面先来简单的实现下看看效果,我这里用guava实现的布隆过滤器:

guava

23.0

publicclassBloomFilterTest {

privatestaticfinalintcapacity =1000000;

privatestaticfinalintkey =999998;

privatestaticBloomFilter bloomFilter = BloomFilter.create(funnels.integerFunnel(), capacity);

static{

for(inti =; i

bloomFilter.put(i);

}

}

public static void main(String[] args) {

/返回计算机最精确的时间,单位微妙/

long start = System.nanoTime();

if(bloomFilter.mightContain(key)) {

}

longend = System.nanoTime();

intsum =;

for(int i = capacity +20000; i

if(bloomFilter.mightContain(i)) {

sum = sum +1;

}

}

}

}

//输出结果

成功过滤到999998

布隆过滤器消耗时间:215518

错判率为:318

可以看到,100w个数据中只消耗了约0.2毫秒就匹配到了key,速度足够快。然后模拟了1w个不存在于布隆过滤器中的key,匹配错误率为318/10000,也就是说,出错率大概为3%,跟踪下BloomFilter的源码发现默认的容错率就是0.03:

// 通过key获取value

String value = redisService.get(key);

if(StringUtil.isempty(value)) {

if(bloomFilter.mightContain(key)) {

value = userService.getById(key);

redisService.set(key, value);

return value;

}else{

return null;

}

}

return value;

}

要让Redis缓存数据数据库数据保持一致,一种常见的做法是使用“缓存穿透缓存击穿、缓存雪崩”等问题的解决方案。 1. 缓存穿透 缓存穿透是指查询一个存在的数据,由于缓存中没有这个数据,所以会断地去查询数据库。这时可以在Redis中将这个存在的数据设置为一个特殊的值(如null或者-1),这样下次查询时,缓存中就有了这个特殊值,用再去查询数据库,从而减轻了数据库的压力。 2. 缓存击穿 缓存击穿是指某一个热点数据缓存中失效后,大量的请求访问这个数据导致所有的请求都落到了数据库上,造成数据库的压力很大。为了避免这种情况,可以在Redis中设置热点数据的过期时间为永过期,同时设置一个异步任务去定时刷新缓存,确保缓存会失效。 3. 缓存雪崩 缓存雪崩是指在某一个时间点,缓存中大量的数据同时失效,导致所有的请求都落到了数据库上,造成数据库的压力很大。为了避免这种情况,可以在Redis中对缓存数据的过期时间做随机化处理,使得数据的过期时间分布均匀,从而避免了同时失效的情况。 此外,为了保持Redis缓存数据数据库数据一致性,还可以使用一些其他的技术手段,比如缓存预热、双写一致性、读写分离等。同的应用场景需要同的技术方案,具体实现需要结合实际情况进行选择优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值