cache 是 CPU和memory中间的缓存,如果访问时选中的set已经满了,就需要从set中选择一个way
Least recently used (LRU)
replace最近最少使用的block。算法记录访问的cache block以及时间顺序,完整的实现这个方式代价比较大。实现时需要为每个cache line记录“age bit”,基于age bit 记录“Least Recently Used” 。
每次访问cache-line,所有的其他的cachline的age都需要修改。
如果访问顺序是A B C D E D F,那么访问的顺序如下:

比较有意思的是很多面试题都会实现LRU Cache,一般的做法是实现
- 双向list,最近访问的放在list head,如果list内部已经有,就移到头部;如果list内部没有,就在head新建立插入一个,并删除末尾的
- Map 用于在list中索引,以log(n)的复杂度找到match的节点
Pseudo-LRU (LRU)
因为LRU的代价较大,实际上并不需要严格的替换掉最近最少访问的那一个,只需要实现从最近最少访问的几个中挑选出一个作为victim,因此很多CPU实际上采用了PLRU的方式,每个cac

本文介绍了缓存系统中的几种关键替换策略,包括真实的LRU算法及其简化版本PLRU,以及BIP/DIP等动态插入策略。这些策略对于提高缓存命中率、降低延迟有着重要作用。
最低0.47元/天 解锁文章
1395

被折叠的 条评论
为什么被折叠?



