LRU算法

本文详细介绍了LRU缓存算法的实现过程,包括使用哈希表和双向链表来存储数据节点,并通过访问频率调整节点顺序。重点阐述了Cache的主要接口、内存管理策略以及如何在满载情况下进行数据替换。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文来自 http://www.hawstein.com/posts/lru-cache-impl.html

LRU算法的实现LRU的典型实现是hash map + doubly linked list, 双向链表用于存储数据结点,并且它是按照结点最近被使用的时间来存储的。 如果一个结点被访问了, 我们有理由

哈希表的作用是什么呢?如果没有哈希表,我们要访问某个结点,就需要顺序地一个个找, 时间复杂度是O(n)。使用哈希表可以让我们在O(1)的时间找到想要访问的结点, 或者返回未找到。

Cache主要有两个接口:

T Get(K key);
void Put(K key, T data);

当我们通过键值来访问类型为T的数据时,调用Get函数。如果键值为key的数据已经在 Cache中,那就返回该数据,同时将存储该数据的结点移到双向链表头部。 如果我们查询的数据不在Cache中,我们就可以通过Put接口将数据插入双向链表中。 如果此时的Cache还没满,那么我们将新结点插入到链表头部, 同时用哈希表保存结点的键值及结点地址对。如果Cache已经满了, 我们就将链表中的最后一个结点(注意不是尾结点)的内容替换为新内容, 然后移动到头部,更新哈希表。

#include <hash_map>
#include <vector>
using namespace stdext;
template <class K,class T>
struct Node
{
	K key;
	T data;
	Node *pre,*next;
};


template <class K,class T>
class LRUCache
{
public:
	LRUCache(size_t size)
	{
		entries_=new Node<K,T>[size];
		for(int i=0;i<size;i++)
			free_entries_.push_back(entries_+i);
		head_=new Node<K,T>;
		tail_=new Node<K,T>;
		head_->pre=NULL;
		head_->next=tail_;
		tail_->pre=head_;
		tail_->next=NULL;
			
	}
	~LRUCache()
	{
		delete head_;
		delete tail_;
		delete[] entries_;
	}
	void Put(K key,T data)
	{
		Node<K,T> *node=hashmap_[key];
		if(node)
		{
			detach(node);
			node->data=data;
			attach(node);
		}else
		{
			if(free_entries_.empty())
			{
				node=tail_->pre;
				detach(node);
				hashmap_.erase(node->key);
				
			}else
			{
				node=free_entries_.back();
				free_entries_.pop_back();

			}
			node->key=key;
			node->data=data;
			hashmap_[key]=node;
			attach(node);
		}
	}
	T Get(K key)
	{
		Node<K,T>* node=hashmap_[key];
		if(node)
		{
			detach(node);
			attach(node);
			return node->data;
		}else
		{
			return T();
		}
	}
	void prin()
	{
		visit();
	}

private:
	//分离
	void detach( Node<K,T>* node)
	{
		node->pre->next=node->next;
		node->next->pre=node->pre;
	}
	//将节点插入头部
	void attach(Node<K,T>* node)
	{
		node->pre=head_;
		node->next=head_->next;
		head_->next=node;
		node->next->pre=node;
	}
	void visit()
	{
		Node<K,T> *p=head_->next;
		while(p!=tail_)
		{
			cout<<p->data<<"  "<<p->key<<endl;
			p=p->next;
		}
	}
private:
	hash_map<K, Node<K,T>* >hashmap_;
	vector<Node<K,T>* > free_entries_;//存储可用节点的地址
	Node<K,T> *head_,*tail_;
	Node<K,T> *entries_;//双链表中的节点
	
};

int main()
{
    LRUCache<int, string> lru_cache(2);
    lru_cache.Put(1, "one");
    cout<<lru_cache.Get(1)<<endl;
    if(lru_cache.Get(2) == "")
        lru_cache.Put(2, "two");
    cout<<lru_cache.Get(2);
	lru_cache.Put(3, "Three");
	lru_cache.prin();
	lru_cache.Put(4, "Four");
	lru_cache.prin();
	return 0;
}




基于Spring Boot搭建的一个多功能在线学习系统的实现细节。系统分为管理员和用户两个主要模块。管理员负责视频、文件和文章资料的管理以及系统运营维护;用户则可以进行视频播放、资料下载、参与学习论坛并享受个性化学习服务。文中重点探讨了文件下载的安全性和性能优化(如使用Resource对象避免内存溢出),积分排行榜的高效实现(采用Redis Sorted Set结构),敏感词过滤机制(利用DFA算法构建内存过滤树)以及视频播放的浏览器兼容性解决方案(通过FFmpeg调整MOOV原子位置)。此外,还提到了权限管理方面自定义动态加载器的应用,提高了系统的灵活性和易用性。 适合人群:对Spring Boot有一定了解,希望深入理解其实际应用的技术人员,尤其是从事在线教育平台开发的相关从业者。 使用场景及目标:适用于需要快速搭建稳定高效的在线学习平台的企业或团队。目标在于提供一套完整的解决方案,涵盖从资源管理到用户体验优化等多个方面,帮助开发者更好地理解和掌握Spring Boot框架的实际运用技巧。 其他说明:文中不仅提供了具体的代码示例和技术思路,还分享了许多实践经验教训,对于提高项目质量有着重要的指导意义。同时强调了安全性、性能优化等方面的重要性,确保系统能够应对大规模用户的并发访问需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值