缓存穿透,缓存击穿,缓存雪崩问题实例及解决方案

本文概述了分布式系统中常见的缓存问题——缓存穿透、缓存击穿和缓存雪崩,介绍了各自的成因及针对性的解决策略,如布隆过滤器、热点数据永不过期、互斥锁、随机过期时间和多级缓存等。

缓存问题是在分布式系统中常见的挑战之一,以下是缓存穿透、缓存击穿和缓存雪崩问题的概述以及针对每个问题的解决方法:

1.缓存穿透:缓存穿透是指请求一个不存在于缓存中的数据,这会导致请求直接落到后端数据库,增加数据库的负载。攻击者可以通过频繁请求不存在的数据来导致缓存穿透。

解决方法:

    • 空值缓存: 当数据库中不存在某个数据时,也将空值(null)缓存起来,这样下次请求同样的数据时,可以从缓存中返回空值,避免频繁查询数据库。
    • 布隆过滤器(Bloom Filter): 在缓存层使用布隆过滤器,它可以快速判断一个数据是否存在于缓存中,避免无效的查询请求进入数据库。
  • 案例: 假设有一个电子商务网站,用户可以通过商品ID查询商品信息。攻击者故意发送不存在的商品ID进行大量请求,这导致缓存中不断缺失该商品信息,每次查询都会直接落到数据库。
  • 解决方法: 使用布隆过滤器,将所有已存在的商品ID存储在布隆过滤器中,请求到来时先判断是否可能存在,避免无效的数据库查询。

2.缓存击穿:缓存击穿是指一个热点数据在缓存中过期或被删除后,大量请求同时涌入,直接落到后端数据库,导致数据库负载剧增。

解决方法:

    • 热点数据永不过期: 将热点数据设置为永不过期,确保即使缓存失效,数据仍然存在于缓存中,减轻数据库负担。
    • 加互斥锁: 在缓存失效的时候,使用互斥锁来保护对数据库的访问,只有一个请求能够重新加载缓存数据,其他请求等待或返回旧数据。
  • 案例: 假设一个社交媒体应用中,某篇热门文章的缓存设置了一小时的过期时间。在文章热度急剧上升时,缓存刚好过期,大量用户请求同时涌入,导致后端数据库负载激增。
  • 解决方法: 设置热门文章的缓存永不过期,或者在缓存失效的同时,使用互斥锁来保护对数据库的访问。

3.缓存雪崩:缓存雪崩是指多个缓存中的数据同时失效,导致大量请求涌入后端数据库,造成数据库负载激增,甚至崩溃。

解决方法:

    • 设置随机过期时间: 在缓存层设置不同的过期时间,避免多个缓存同时过期,减少数据库请求的集中发生。
    • 使用分布式锁: 在缓存失效的时候,使用分布式锁来保护对数据库的访问,只有一个请求能够重新加载缓存数据,其他请求等待或返回旧数据。
    • 使用多级缓存: 引入多级缓存,例如本地缓存和分布式缓存,避免单一缓存层失效导致的雪崩问题。
  • 案例: 假设一个电商网站中,商品列表缓存设置了相同的过期时间。在某个时间点,缓存中的所有商品列表同时过期,大量用户在同一时刻访问,导致后端数据库压力巨大。
  • 解决方法: 设置随机过期时间,确保缓存不会在同一时刻同时失效,或者使用分布式锁来控制对缓存的重新加载,避免同时涌入大量请求。

### Redis缓存穿透击穿雪崩及其解决方案 #### 缓存穿透 (Cache Penetration) 当查询的数据在数据库中不存在,每次请求都会穿透到数据库层,造成大量无意义的查询压力。这种情况不仅浪费资源,还可能被恶意利用进行攻击。 为了防止这种现象的发生,可以采取如下措施: - **布隆过滤器**:使用布隆过滤器来判断数据是否存在,如果布隆过滤器返回false,则可以直接断定该键一定不存在于缓存与数据库之中[^1]。 - **空对象缓存**:对于确实不存在的数据项,在缓存中存储一个特殊的标记(如`null`),并设置较短的有效期。这样下次再遇到相同的查询时就可以直接命中缓存而无需访问数据库。 ```python import redis r = redis.Redis() def get_data_with_null_object(key): data = r.get(key) if not data: # 假设db_get是从数据库获取数据的方法 db_result = db_get(key) if not db_result: r.setex(key, 60, "NULL") # 设置过期时间为60秒 return db_result elif data.decode('utf-8') == 'NULL': return None else: return data ``` #### 缓存击穿 (Cache Breakdown) 某个热点key突然失效,此时大量的并发请求会瞬间打到数据库上,给数据库带来巨大压力。为了避免这一情况发生,可采用以下方法: - **加锁机制**:通过分布式锁控制同一时间只有一个线程能够更新缓存中的特定条目;其他线程则等待直到新的值已经被加载回缓存为止。 - **设置随机有效期**:为热Key设定带有轻微波动范围的时间戳作为其TTL(Time To Live),从而减少因多个实例同时到期而导致的大规模刷新操作的可能性。 ```python from threading import Lock lock_dict = {} def set_value_with_lock(redis_client, key, value, ttl=None): lock_key = f'lock:{key}' with Lock() as lock: acquired = False try: while True: if not redis_client.exists(lock_key): acquired = bool(redis_client.setnx(lock_key, 1)) if acquired: break time.sleep(0.1) # 尝试获得锁 redis_client.set(key, value, ex=ttl or random.randint(90, 120)) # TTL带有一些随机性 finally: if acquired: redis_client.delete(lock_key) def get_or_set_cache(redis_client, key, fetch_func, ttl=None): result = redis_client.get(key) if result is None: set_value_with_lock(redis_client, key, fetch_func(), ttl) result = redis_client.get(key) return result ``` #### 缓存雪崩 (Cache Avalanche) 由于某些原因导致大量缓存在几乎相同时间内集体失效,进而引发对后端服务的巨大冲击。针对此问题有几种常见处理方式: - **分片策略**:将不同类型的业务逻辑按照一定的规则分配至不同的Redis节点保存,即使部分机器出现问题也不会影响整个系统的正常运作。 - **限流降级**:引入熔断器模式,在极端情况下自动拒绝超出服务能力之外的新请求,保护核心功能不受损害。 ```python class RateLimiter(object): def __init__(self, rate_limit_per_minute): self.rate_limit_per_minute = rate_limit_per_minute self.requests_in_last_min = [] def allow_request(self): current_time = int(time.time()) one_minute_ago = current_time - 60 filtered_requests = list(filter(lambda t: t >= one_minute_ago, self.requests_in_last_min)) if len(filtered_requests) < self.rate_limit_per_minute: self.requests_in_last_min.append(current_time) return True else: return False rate_limiter = RateLimiter(rate_limit_per_minute=100) if rate_limiter.allow_request(): process_user_request() else: respond_with_error("Too many requests.") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值