缓存就是万金油,哪里有问题哪里抹一下 。那他的本质是什么呢?

缓存是解决系统性能问题的关键,本文深入探讨了Redis的缓存淘汰策略,包括LRU和LFU的实现原理。通过对Redis源码的分析,解释了LFU如何通过时间窗口和初始频率值来应对突发流量,以及如何通过Redis的`freeMemoryIfNeeded`和`maxmemory-samples`参数实现LRU采样。同时,文章讨论了缓存的指标,如吞吐量、缓存命中率和高级特性,强调了缓存库实现效率的重要性。

所有 IT 从业者都接触过缓存,一定了解基本工作原理,业界流行一句话: 缓存就是万金油,哪里有问题哪里抹一下 。那他的本质是什么呢?

上图代表从 cpu 到底层硬盘不同层次,不同模块的运行速度,上层多加一层 cache, 就能解决下层的速度慢的问题,这里的慢是指两点:IO 慢和 cpu 重复计算缓存中间结果

但是 cache 受限于成本,cache size 一般都是固定的,所以数据需要淘汰,由此引出一系列其它问题:缓存一致性、击穿、雪崩、污染等等,本文通过阅读 redis 源码,学习主流淘汰算法

如果不是 leetcode 146 LRU [1] 刷题需要,我想大家也不会手写 cache, 简单的实现和工程实践相距十万八千里,真正 production ready 的缓存库非常考验细节

Redis 缓存淘汰配置

一般 redis 不建义当成存储使用,只允许当作 cache, 并设置 max-memory, 当内存使用达到最大值时,redis-server 会根据不同配置开始删除 keys. Redis 从 4.0 版本引进了 LFU [2] , 即 Least Frequently Used ,4.0 以前默认使用 LRU 即 Least Recently Used

  • volatile-lru 只针对设置 expire 过期的 key 进行 lru 淘汰
  • allkeys-lru 对所有的 key 进行 lru 淘汰
  • volatile-lfu 只针对设置 expire 过期的 key 进行 lfu 淘汰
  • allkeys-lfu 对所有的 key 进行 lfu 淘汰
  • volatile-random 只针对设置 expire 过期的进行随机淘汰
  • allkeys-random 所有的 key 随机淘汰
  • volatile-ttl 淘汰 ttl 过期时间最小的 key
  • noeviction 什么都不做,如果此时内存已满,系统无法写入

默认策略是 noeviction , 也就是不驱逐,此时如果写满,系统无法写入,建义设置为 LFU 相关的。 LRU 优先淘汰最近未被使用,无法应对冷数据,比如热 keys 短时间没有访问,就会被只使用一次的冷数据冲掉,无法反应真实的使用情况

LFU 能避免上述情况,但是 朴素 LFU 实现无法应对突发流量,无法驱逐历史热 keys ,所以 redis LFU 实现类似于 W-TinyLFU [3] , 其中 W 是 windows 的意思,即一定时间窗口后对频率进行减半,如果不减的话,cache 就成了对历史数据的统计,而不是缓存

上面还提到突发流量如果应对呢?答案是给新访问的 key 一个初始频率值,不至于由于初始值为 0 无法更新频率

LRU 实现

int processCommand(redisClient *c) {
    ......
    /* Handle the maxmemory directive.
     *
     * First we try to free some memory if possible (if there are volatile
     * keys in the dataset). If there are not the only thing we can do
     * is returning an error. */
    if (server.maxmemory) {
        int retval = freeMemoryIfNeeded();
        if ((c->cmd->flags & REDIS_CMD_DENYOOM) && retval == REDIS_ERR) {
            flagTransaction(c);
            addReply(c, shared.oomerr);
            return REDIS_OK;
        }
    }
    ......
}

在每次处理 client 命令时都会调用 freeMemoryIfNeeded 检查是否有必有驱逐某些 key, 当 redis 实际使用内存达到上限时开始淘汰。但是 redis 做的比较取巧,并没有对所有的 key 做 lru 队列,而是按照 maxmemory_samples 参数进行采样,系统默认是 5 个 key

上面是很经典的一个图,当到达 10 个 key 时效果更接近理论上的 LRU 算法,但是 cpu 消耗会变高,所以系统默认值就够了。

LFU 实现

robj *lookupKey(redisDb *db, robj *key, int flags) {
    dictEntry *de = dictFind(db->dict,key->ptr);
    if (de) {
        robj *val = dictGetVal(de);

        /* Update the access time for the ageing algorithm.
         * Don't do it if we have a saving child, as this will trigger
         * a copy on write madness. */
        if (!hasActiveChildProcess() && !(flags & LOOKUP_NOTOUCH)){
            if (server.maxmemory_policy & MAXMEMORY_FLAG_LFU) {
                updateLFU(val);
            } else {
                val->lru = LRU_CLOCK();
            }
        }
        return val;
    } else {
        returnNULL;
    }
}

当 lookupKey 访问某 key 时,会更新 LRU. 从 redis 4.0 开始逐渐引入了 LFU 算法,由于复用了 LRU 字段,所以只能使用 24 bits

 * We split the 24 bits into two fields:
 *
 *     16 bits      8 bits
 * +----------------+--------+
 * + Last decr time | LOG_C  |
 * +----------------+--------+

其中低 8 位 counter 用于计数频率,取值为从 0~255, 但是经过取对数的,所以可以表示很大的访问频率

高 16 位 ldt ( Last Decrement Time )表示最后一次访问的 miniutes 时间戳, 用于衰减 counter 值,如果 counter 不衰减的话就变成了对历史 key 访问次数的统计了,而不是 LFU

/* Update LFU when an object is accessed.
 * Firstly, decrement the counter if the decrement time is reached.
 * Then logarithmically increment the counter, and update the access time. */
void updateLFU(robj *val) {
    unsigned long counter = LFUDecrAndReturn(val);
    counter = LFULogIncr(counter);
    val->lru = (LFUGetTimeInMinutes()<<8) | counter;
}

LFUDecrAndReturn 将已有的 counter 计数衰减后返回, LFULogIncr 尝试对计数加一(有可能不加)后取对数,最后更新 val-lru

unsigned long LFUTimeElapsed(unsigned long ldt) {
    unsigned long now = LFUGetTimeInMinutes();
    if (now >= ldt) return now-ldt;
    return 65535-ldt+now;
}

注意由于 ldt 只用了 16位计数,最大值 65535,所以会出现回卷 rewind

LFU 获取己有计数

 * counter of the scanned objects if needed. */
unsigned long LFUDecrAndReturn(robj *o) {
    unsigned long ldt = o->lru >> 8;
    unsigned long counter = o->lru & 255;
    unsigned long num_periods = server.lfu_decay_time ? LFUTimeElapsed(ldt) / server.lfu_decay_time : 0;
    if (num_periods)
        counter = (num_periods > counter) ? 0 : counter - num_periods;
    return counter;
}

num_periods 代表计算出来的待衰减计数, lfu_decay_time 代表衰减系数,默认值是 1,如果 lfu_decay_time 大于 1 衰减速率会变得很慢

最后返回的计数值为衰减之后的,也有可能是 0

LFU 计数更新并取对数

/* Logarithmically increment a counter. The greater is the current counter value
 * the less likely is that it gets really implemented. Saturate it at 255. */
uint8_t LFULogIncr(uint8_t counter) {
    if (counter == 255) return 255;
    double r = (double)rand()/RAND_MAX;
    double baseval = counter - LFU_INIT_VAL;
    if (baseval < 0) baseval = 0;
    double p = 1.0/(baseval*server.lfu_log_factor+1);
    if (r < p) counter++;
    return counter;
}

计数超过 255, 就不用算了,直接返回即可。 LFU_INIT_VAL 是初始值,默认是 5

如果减去初始值后 baseval 小于 0 了,说明快过期了,就更倾向于递增 counter 值

double p = 1.0/(baseval*server.lfu_log_factor+1);

这个概率算法中 lfu_log_factor 是对数的,默认是 10, 当 counter 值较小时自增的概率较大,如果 counter 较大,倾向于不做任何操作

counter 值从 0~255 可以表示很大的访问频率,足够用了

# +--------+------------+------------+------------+------------+------------+
# | factor | 100 hits   | 1000 hits  | 100K hits  | 1M hits    | 10M hits   |
# +--------+------------+------------+------------+------------+------------+
# | 0      | 104        | 255        | 255        | 255        | 255        |
# +--------+------------+------------+------------+------------+------------+
# | 1      | 18         | 49         | 255        | 255        | 255        |
# +--------+------------+------------+------------+------------+------------+
# | 10     | 10         | 18         | 142        | 255        | 255        |
# +--------+------------+------------+------------+------------+------------+
# | 100    | 8          | 11         | 49         | 143        | 255        |
# +--------+------------+------------+------------+------------+------------+

基于这个特性,我们就可以用 redis-cli --hotkeys 命令,来查看系统中的最近一段时间的热 key, 非常实用。老版本中是没这个功能的,需要人工统计

$ redis-cli --hotkeys
# Scanning the entire keyspace to find hot keys as well as
# average sizes per key type.  You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).
......
[47.62%] Hot key 'key17' found so far with counter 6
[57.14%] Hot key 'key43' found so far with counter 7
[57.14%] Hot key 'key14' found so far with counter 6
[85.71%] Hot key 'key42' found so far with counter 7
[85.71%] Hot key 'key45' found so far with counter 8
[95.24%] Hot key 'key50' found so far with counter 7

-------- summary -------

Sampled 105 keys in the keyspace!
hot key found with counter: 7 keyname: key40
hot key found with counter: 7 keyname: key42
hot key found with counter: 7 keyname: key50

谈谈缓存的指标

前面提到的是 redis LFU 实现,这是集中式的缓存,我们还有很多进程的本地缓存。如何评价一个缓存实现的好坏,有好多指标,细节更重要

  • 吞吐量:常说的 QPS, 对标 bucket 实现的 hashmap 复杂度是 O(1), 缓存复杂度要高一些,还有锁竞争要处理,总之缓存库实现的效率要高
  • 缓存命中率:光有吞吐量还不够,缓存命中率也非常关键,命中率越高说明引入缓存作用越大
  • 高级特性:缓存指标统计,如何应对缓存击穿等等
<think>嗯,用户已经明确提出了关于NDN缓存与传统CDN缓存本质区别的问题。结合之前的对话历史,用户显然是在深入探究新型网络架构的特性,特别是内容分发机制的革新点。从用户引用的材料可以看出,ta对CDN的局限性(如最后一公里拥塞)和NDN的理论优势有基本认知,但需要更系统的对比分析。 用户提供的四则引用材料很有价值:引用[1]指出CDN本质是多对一系统,而NDN通过分布式存储解决带宽竞争问题;引用[2]强调NDN架构在内容分发方面的先进性;引用[3][4]则补充了CDN的基础知识。不过需要警惕的是,引用[3]关于DNS和CDN的解释与当前问题关联度较低,而引用[4]提到的NEBULA架构可能暗示用户对新型网络技术有广泛兴趣。 在构思回答时,应该突出三个核心差异点:首先是架构范式(中心化CDN vs 分布式NDN),其次是内容获取逻辑(IP寻址 vs 命名数据),最后是缓存驱动机制(预置式 vs 请求驱动式)。考虑到用户此前关注过缓存性能量化指标(命中率、冗余度等),在解释差异时可以自然融入这些概念,比如说明NDN的泛在缓存如何影响命中率分布。 特别注意要回应用户引用的关键论点:CDN作为"work around"的局限性(引用[1])恰恰反衬出NDN通过存储换带宽的核心价值。对于用户未明说但可能关心的点——比如NDN实际部署挑战——也应在最后补充说明,因为这关系到理论优势的落地可行性。 最后生成的问题要延续技术纵深:从缓存置换策略(UTS-LRU)到部署优化(5G边缘场景),保持与用户前序问题的连贯性。特别要加入关于缓存安全的问题,因为用户历史提问中提及过兴趣包洪泛攻击。 </think>NDN缓存与传统CDN缓存本质区别主要体现在**架构范式、内容获取机制和缓存驱动力**三个维度,以下从核心差异点展开分析: --- ### 一、架构范式差异 | **维度** | **传统CDN缓存** | **NDN缓存** | **本质区别** | |----------------|-------------------------------------|--------------------------------------|-----------------------------| | **拓扑结构** | 分层中心化部署(边缘节点→区域中心→源站) | 完全分布式(任意节点可缓存) | **中心化 vs 全网格化** [^1] | | **内容定位** | 通过DNS重定向到最近CDN节点 | 基于内容名称路由(与位置无关) | **IP寻址 vs 内容命名** [^2] | | **缓存主体** | 专属CDN服务器 | 所有网络设备(路由器、终端等) | **专用设施 vs 泛在存储** | > **案例**: > 当用户请求视频时,CDN需通过DNS定位最近的边缘节点(可能仍跨城域网);而NDN路由器根据内容名`/youku/v1234/chunk5`在本地或邻近节点直接响应,无需回溯源站[^1][^2]。 --- ### 二、内容获取机制对比 1. **CDN的"多对一"瓶颈** - 用户请求被汇聚到指定CDN节点,导致**最后一公里拥塞**(尤其热点内容) - 本质仍是**客户端-服务器模型**的优化变体[^1] ```mermaid graph LR A[用户A] --> B(CDN边缘节点) C[用户B] --> B D[用户C] --> B B --> E[CDN区域中心] E --> F[源站] ``` 2. **NDN的"多对多"解耦** - 兴趣包(Interest)在传输路径上被**首个持有数据的节点拦截响应** - 缓存副本天然分布在请求路径上,实现**带宽与存储的自动交换**[^1] ```mermaid graph LR A[用户A] --> B[路由器1] B --> C[路由器2/缓存命中] C --> A D[用户B] --> C ``` --- ### 三、缓存驱动力的根本区别 | **特性** | **CDN缓存** | **NDN缓存** | |------------------|--------------------------------------|--------------------------------------| | **缓存触发** | 服务商预置(Push模式) | 用户请求驱动(Pull模式) | | **更新控制** | 中心调度(TTL失效/主动刷新) | 数据自带新鲜度标识(可验证签名) | | **冗余代价** | 存储集中在边缘节点,冗余可控 | 全网泛在缓存,冗余度天然较高 | | **优化目标** | 降低源站压力,提升QoS | 消除带宽竞争,实现网络负载均衡[^1] | > **关键洞见**: > CDN通过**集中式存储**换取带宽节省,而NDN通过**分布式冗余**消除传输拥塞——本质是**存储成本与带宽成本的权衡置换**[^1]。例如NDN中热门内容会在多个用户路径上自然形成副本,使后续请求无需竞争主干带宽。 --- ### 四、性能表现对比 1. **命中率特性** - CDN:依赖精准的热点预测,**长尾内容命中率低** - NDN:路径缓存使**突发请求/小众内容更易命中**(如物联网设备数据) 2. **延迟构成** $$ \text{CDN延迟} = t_{\text{DNS}} + t_{\text{边缘传输}} + t_{\text{回源(可选)}} $$ $$ \text{NDN延迟} = \min\{ t_{\text{路径节点缓存响应}} \} $$ NDN避免DNS查询和固定路径约束,**理论延迟下限更低**[^2] --- ### 五、典型场景差异 | **场景** | **CDN优势** | **NDN优势** | |------------------|--------------------------------|--------------------------------| | 热点视频分发 | 预缓存效率高 | 边缘突发流量适应性弱 | | 车联网(V2X) | 移动场景切换成本高 | 就近获取实时路况数据 | | 物联网传感网络 | 长尾数据支持差 | 多节点协同缓存提升数据可用性 | > **矛盾点**: > CDN的集中式管理在**内容管控/计费**上更成熟,而NDN的开放性可能导致**缓存隐私泄露**风险(如通过兴趣包推断用户行为)[^2]。 --- **演进关系**: CDN本质是TCP/IP架构下内容分发的**工程优化方案**,而NDN是从网络层重构的**下一代架构**。两者并非替代关系——NDN若部署,可吸纳CDN的管理经验;而当前CDN通过边缘计算等演进逐步靠近NDN理念[^1][^4]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值