redis 缓存击穿 看一篇成高手系列 三

本文深入解析了缓存击穿现象,探讨了其对系统性能的影响,并提出了三种有效的解决方案,包括使用互斥锁、异步构建缓存和布隆过滤器,旨在帮助开发者理解和预防缓存击穿。

什么是缓存击穿


在谈论缓存击穿之前,我们先来回忆下从缓存中加载数据的逻辑,如下图所示


因此,如果黑客每次故意查询一个在缓存内必然不存在的数据,导致每次请求都要去存储层去查询,这样缓存就失去了意义。如果在大流量下数据库可能挂掉。这就是缓存击穿。


场景如下图所示:


我们正常人在登录首页的时候,都是根据userID来命中数据,然而黑客的目的是破坏你的系统,黑客可以随机生成一堆userID,然后将这些请求怼到你的服务器上,这些请求在缓存中不存在,就会穿过缓存,直接怼到数据库上,从而造成数据库连接异常。

解决方案


在这里我们给出三套解决方案,大家根据项目中的实际情况,选择使用.

讲下述三种方案前,我们先回忆下redis的setnx方法

SETNX key value

将 key 的值设为 value ,当且仅当 key 不存在。

若给定的 key 已经存在,则 SETNX 不做任何动作。

SETNX 是『SET if Not eXists』(如果不存在,则 SET)的简写。

可用版本:>= 1.0.0

时间复杂度: O(1)

返回值: 设置成功,返回 1。设置失败,返回 0 。

效果如下

redis> EXISTS job                # job 不存在

(integer) 0

 

redis> SETNX job "programmer"    # job 设置成功

(integer) 1

 

redis> SETNX job "code-farmer"   # 尝试覆盖 job ,失败

(integer) 0

 

redis> GET job                   # 没有被覆盖

"programmer"

1、使用互斥锁

该方法是比较普遍的做法,即,在根据key获得的value值为空时,先锁上,再从数据库加载,加载完毕,释放锁。若其他线程发现获取锁失败,则睡眠50ms后重试。

至于锁的类型,单机环境用并发包的Lock类型就行,集群环境则使用分布式锁( redis的setnx)

集群环境的redis的代码如下所示:

String get(String key) {  

   String value = redis.get(key);  

   if (value  == null) {  

    if (redis.setnx(key_mutex, "1")) {  

        // 3 min timeout to avoid mutex holder crash  

        redis.expire(key_mutex, 3 * 60)  

        value = db.get(key);  

        redis.set(key, value);  

        redis.delete(key_mutex);  

    } else {  

        //其他线程休息50毫秒后重试  

        Thread.sleep(50);  

        get(key);  

    }  

  }  

}  

优点

思路简单

保证一致性

缺点

代码复杂度增大

存在死锁的风险


2、异步构建缓存


在这种方案下,构建缓存采取异步策略,会从线程池中取线程来异步构建缓存,从而不会让所有的请求直接怼到数据库上。该方案redis自己维护一个timeout,当timeout小于System.currentTimeMillis()时,则进行缓存更新,否则直接返回value值。


集群环境的redis代码如下所示:

String get(final String key) {  

        V v = redis.get(key);  

        String value = v.getValue();  

        long timeout = v.getTimeout();  

        if (v.timeout <= System.currentTimeMillis()) {  

            // 异步更新后台异常执行  

            threadPool.execute(new Runnable() {  

                public void run() {  

                    String keyMutex = "mutex:" + key;  

                    if (redis.setnx(keyMutex, "1")) {  

                        // 3 min timeout to avoid mutex holder crash  

                        redis.expire(keyMutex, 3 * 60);  

                        String dbValue = db.get(key);  

                        redis.set(key, dbValue);  

                        redis.delete(keyMutex);  

                    }  

                }  

            });  

        }  

        return value;  

    }

优点

性价最佳,用户无需等待

缺点

无法保证缓存一致性


3、布隆过滤器


1、原理


布隆过滤器的巨大用处就是,能够迅速判断一个元素是否在一个集合中。因此他有如下三个使用场景:

网页爬虫对URL的去重,避免爬取相同的URL地址

反垃圾邮件,从数十亿个垃圾邮件列表中判断某邮箱是否垃圾邮箱(同理,垃圾短信)

缓存击穿,将已存在的缓存放到布隆过滤器中,当黑客访问不存在的缓存时迅速返回避免缓存及DB挂掉。

OK,接下来我们来谈谈布隆过滤器的原理


其内部维护一个全为0的bit数组,需要说明的是,布隆过滤器有一个误判率的概念,误判率越低,则数组越长,所占空间越大。误判率越高则数组越小,所占的空间越小。

假设,根据误判率,我们生成一个10位的bit数组,以及2个hash函数((f_1,f_2)),如下图所示(生成的数组的位数和hash函数的数量,我们不用去关心是如何生成的,有数学论文进行过专业的证明)。


假设输入集合为((N_1,N_2)),经过计算(f_1(N_1))得到的数值得为2,(f_2(N_1))得到的数值为5,则将数组下标为2和下表为5的位置置为1,如下图所示


同理,经过计算(f_1(N_2))得到的数值得为3,(f_2(N_2))得到的数值为6,则将数组下标为3和下表为6的位置置为1,如下图所示


这个时候,我们有第三个数(N_3),我们判断(N_3)在不在集合((N_1,N_2))中,就进行(f_1(N_3),f_2(N_3))的计算

若值恰巧都位于上图的红色位置中,我们则认为,(N_3)在集合((N_1,N_2))中

若值有一个不位于上图的红色位置中,我们则认为,(N_3)不在集合((N_1,N_2))中

以上就是布隆过滤器的计算原理,下面我们进行性能测试,

2、性能测试


代码如下:

(1)新建一个maven工程,引入guava包


<dependencies>  

        <dependency>  

            <groupId>com.google.guava</groupId>  

            <artifactId>guava</artifactId>  

            <version>22.0</version>  

        </dependency>  

    </dependencies>

(2)测试一个元素是否属于一个百万元素集合所需耗时

package bloomfilter;

 

import com.google.common.hash.BloomFilter;

import com.google.common.hash.Funnels;

import java.nio.charset.Charset;

 

public class Test {

    private static int size = 1000000;

 

    private static BloomFilter<Integer> bloomFilter =BloomFilter.create(Funnels.integerFunnel(), size);

 

    public static void main(String[] args) {

        for (int i = 0; i < size; i++) {

            bloomFilter.put(i);

        }

        long startTime = System.nanoTime(); // 获取开始时间

        

        //判断这一百万个数中是否包含29999这个数

        if (bloomFilter.mightContain(29999)) {

            System.out.println("命中了");

        }

        long endTime = System.nanoTime();   // 获取结束时间

 

        System.out.println("程序运行时间: " + (endTime - startTime) + "纳秒");

 

    }

}

输出如下所示

命中了

程序运行时间: 219386纳秒

也就是说,判断一个数是否属于一个百万级别的集合,只要0.219ms就可以完成,性能极佳。

(3)误判率的一些概念

首先,我们先不对误判率做显示的设置,进行一个测试,代码如下所示

package bloomfilter;

 

import java.util.ArrayList;

import java.util.List;

 

import com.google.common.hash.BloomFilter;

import com.google.common.hash.Funnels;

 

public class Test {

    private static int size = 1000000;

 

    private static BloomFilter<Integer> bloomFilter =BloomFilter.create(Funnels.integerFunnel(), size);

 

    public static void main(String[] args) {

        for (int i = 0; i < size; i++) {

            bloomFilter.put(i);

        }

        List<Integer> list = new ArrayList<Integer>(1000);  

        

        //故意取10000个不在过滤器里的值,看看有多少个会被认为在过滤器里

        for (int i = size + 10000; i < size + 20000; i++) {  

            if (bloomFilter.mightContain(i)) {  

                list.add(i);  

            }  

        }  

        System.out.println("误判的数量:" + list.size());

 

    }

}

输出结果如下

误判对数量:330

如果上述代码所示,我们故意取10000个不在过滤器里的值,却还有330个被认为在过滤器里,这说明了误判率为0.03.即,在不做任何设置的情况下,默认的误判率为0.03。


下面上源码来证明:


接下来我们来看一下,误判率为0.03时,底层维护的bit数组的长度如下图所示


将bloomfilter的构造方法改为

private static BloomFilter<Integer> bloomFilter = BloomFilter.create(Funnels.integerFunnel(), size,0.01);

即,此时误判率为0.01。在这种情况下,底层维护的bit数组的长度如下图所示

由此可见,误判率越低,则底层维护的数组越长,占用空间越大。因此,误判率实际取值,根据服务器所能够承受的负载来决定,不是拍脑袋瞎想的。

3、实际使用


redis伪代码如下所示

String get(String key) {  

   String value = redis.get(key);  

   if (value  == null) {  

        if(!bloomfilter.mightContain(key)){

            return null;

        }else{

           value = db.get(key);  

           redis.set(key, value);  

        }

    }

    return value;

}

优点

思路简单

保证一致性

性能强

缺点

代码复杂度增大

需要另外维护一个集合来存放缓存的Key

布隆过滤器不支持删值操作

 

方支付功能的技术人员;尤其适合从事电商、在线教育、SaaS类项目开发的工程师。; 使用场景及目标:① 实现微信与支付宝的Native、网页/APP等主流支付方式接入;② 掌握支付过程中关键的安全机制如签名验签、证书管理与敏感信息保护;③ 构建完整的支付闭环,包括下单、支付、异步通知、订单状态更新、退款与对账功能;④ 通过定时任务处理内容支付超时与概要状态不一致问题:本文详细讲解了Java,提升系统健壮性。; 阅读应用接入支付宝和建议:建议结合官方文档与沙微信支付的全流程,涵盖支付产品介绍、开发环境搭建箱环境边学边练,重点关注、安全机制、配置管理、签名核心API调用及验签逻辑、异步通知的幂等处理实际代码实现。重点与异常边界情况;包括商户号与AppID获取、API注意生产环境中的密密钥与证书配置钥安全与接口调用频率控制、使用官方SDK进行支付。下单、异步通知处理、订单查询、退款、账单下载等功能,并深入解析签名与验签、加密解密、内网穿透等关键技术环节,帮助开发者构建安全可靠的支付系统。; 适合人群:具备一定Java开发基础,熟悉Spring框架和HTTP协议,有1-3年工作经验的后端研发人员或希望快速掌握第方支付集的开发者。; 使用场景及目标:① 实现微信支付Native模式与支付宝PC网页支付的接入;② 掌握支付过程中核心的安全机制如签名验签、证书管理、敏感数据加密;③ 处理支付结果异步通知、订单状态核对、定时任务补偿、退款及对账等生产级功能; 阅读建议:建议结合文档中的代码示例与官方API文档同步实践,重点关注支付流程的状态一致性控制、幂等性处理和异常边界情况,建议在沙箱环境中完全流程测试后再上线。
matlab2python 这是一个Python脚本,用于将Matlab文件或代码行转换为Python。此项目处于alpha阶段。 该实现严重依赖于Victor Leikehman的SMOP项目。 当前实现围绕SMOP构建,具有以下差异: 力图生不依赖libsmop的代码,仅使用如numpy这样的标准Python模块。 使用常见缩写如np而非全称numpy。 尝试重排数组和循环索引,从0开始而不是1。 不使用来自libsmop的外部类matlabarray和cellarray。 增加了对Matlab类的基本支持,类体中声明的属性在构造函数中初始化。 因上述改动,产出代码“安全性较低”,但可能更接近用户自然编写的代码。 实现相对直接,主要通过替换SMOP使用的后端脚本,这里称为smop\backend_m2py.py。 一些函数替换直接在那里添加。 额外的类支持、导入模块以及其他微调替换(或说是黑客技巧)在matlabparser\parser.py文件中完。 安装 代码用Python编写,可按如下方式获取: git clone https://github.com/ebranlard/matlab2python cd matlab2python # 安装依赖项 python -m pip install --user -r requirements.txt # 让包在任何目录下都可用 python -m pip install -e . # 可选:运行测试 pytest # 可选:立即尝试 python matlab2python.py tests/files/fSpectrum.m -o fSpectrum.py 使用方法 主脚本 存储库根目录下的主脚本可执行,并带有一些命令行标志(部分直接取自SMOP)。要将文件file.m转换为file.py,只需输入:
### Redis 缓存击穿概述 缓存击穿指的是当一个热点键(key)在缓存中不存在时,大量的并发请求会穿透缓存直接访问数据库,从而给数据库带来巨大压力。这种情况通常发生在高并发场景下或者缓存刚刚失效的一瞬间。 ### 解决方案详解 #### 定时任务主动刷新缓存设计 通过设定定时器,在缓存即将到期前自动更新缓存中的数据,可以有效防止因缓存突然失效而导致的大批量请求涌入数据库的情况发生[^1]。 ```java // Java伪代码实现定时刷新机制 ScheduledExecutorService scheduler = Executors.newSingleThreadScheduledExecutor(); scheduler.scheduleAtFixedRate(() -> { try { // 刷新指定ID的商品信息至Redis saveShop2Redis(specificId, expireSeconds); } catch (InterruptedException e) { Thread.currentThread().interrupt(); } }, initialDelay, period, TimeUnit.SECONDS); ``` #### 使用Redis分布式锁 利用Redis提供的`SETNX`命令来创建分布式的互斥锁,确保同一时刻只有一个客户端能够执行获取并填充缓存的操作,其他等待的客户端则可以在锁释放后再尝试获取缓存[^4]。 ```bash # 设置带有NX选项的KEY,只有当KEY不存在时才会功设置 SET resource_name any_value NX PX 10000 ``` #### JVM本地锁配合查询操作 对于某些特定的应用场景,也可以考虑使用JVM级别的同步控制手段如`synchronized`关键字或显式锁定对象来进行保护,不过这种方式适用于单机环境下的应用实例之间共享资源的竞争情况。 ```java private final Object lockObj = new Object(); public synchronized void fetchCacheWithLock() { // 加入临界区之前先检查是否存在缓存 String cachedValue = getFromCache(key); if (cachedValue == null || cachedValue.isEmpty()) { synchronized(lockObj){ // 再次确认是否已经被其他人加载到了缓存里 if ((cachedValue = getFromCache(key)) != null && !cachedValue.isEmpty()){ return; } // 如果确实没有,则从DB读取最新值放入缓存 loadDataIntoCache(key); } } } ``` #### 多级缓存策略 结合应用程序自身的内存空间构建两级甚至更多层次结构化的存储体系——即除了依赖外部NoSQL组件外还额外引入一层位于应用服务器端进程内的高速缓冲池作为前置过滤层;如此一来既可减少对外部服务调用频度又能提升整体性能表现。 ```python def multi_level_cache_get(cache_key): # 尝试从一级缓存(JVM Cache)中查找 value = jvm_cache.get(cache_key) if not value: # 若未命中再向二级缓存(Redis)发起检索请求 value = redis_client.get(cache_key) if value is None: # 数据库查询并将结果同时写回两处位置以便后续快速响应相同需求 db_result = database.query_by_id(cache_key.split(":")[-1]) set_to_jvm_and_redis_caches(db_result, cache_key) return value or "Not Found" ``` #### 逻辑过期时间方案 为了避免实际业务逻辑上的永久保存带来的负面影响,可以通过为每条记录附加一个合理的有效期字段,并将其序列化后存入Redis之中;每次读取时都需要解析该属性判断其是否仍然处于可用状态之内[^3]。 ```json { "data": {"id":"example",...}, "expireTime": "2023-10-08T15:37:09Z" } ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值