/*
用链表模拟一个LRU内存即可。
参考:https://github.com/soulmachine/leetcode
*/
class LRUCache{
private:
struct CacheNode{
int key;
int value;
CacheNode(int k, int v):key(k),value(v){};
};
list<CacheNode> cachelist;
unordered_map<int, list<CacheNode>::iterator> cacheMap;
int capacity;
public:
LRUCache(int capacity) {
this->capacity = capacity;
}
int get(int key) {
if(cacheMap.find(key) == cacheMap.end()) return -1;
cachelist.splice(cachelist.begin(), cachelist, cacheMap[key]);
cacheMap[key] = cachelist.begin();
return cacheMap[key]->value;
}
void set(int key, int value) {
if(cacheMap.find(key) == cacheMap.end()){//如果Cache中不存在该key
if(cachelist.size() == capacity){//如果Cache中满了
cacheMap.erase(cachelist.back().key);
cachelist.pop_back();
}
//插入新的结点
cachelist.push_front(CacheNode(key, value));
cacheMap[key] = cachelist.begin();
}
else{
cacheMap[key]->value = value;
cachelist.splice(cachelist.begin(), cachelist, cacheMap[key]);
cacheMap[key] = cachelist.begin();
}
}
};Leetcode之LRU Cache
最新推荐文章于 2025-05-03 16:15:14 发布
本文介绍了一种使用链表和哈希表实现LRU(Least Recently Used)缓存淘汰策略的方法。通过定义CacheNode结构体来存储键值对,并利用双向链表保持元素的访问顺序,最近使用的元素放在链表头部,最久未使用的元素放在尾部。当缓存容量达到上限时,会移除最久未使用的元素。
264

被折叠的 条评论
为什么被折叠?



