MMU作用及Cache作用

MMU是处理器中的关键组件,负责虚拟地址到物理地址的映射、内存保护和Cache控制。TLB作为快表加速地址转换,而TTW处理未在TLB中找到的转换。Cache则提高CPU读取数据的速度,通过存储最近使用的数据块以减少对内存的依赖。这两者结合提升了系统性能和内存管理效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

MMU作用

高性能处理器一般会提供一个内存管理单元(MMU),该单元辅助操作系统进行内存管理,提供虚拟地址和物理地址的映射、内存访问权限保护和Cache缓存控制等硬件支持。操作系统内核借助MMU可以让用户感觉到程序好像可以使用非常大的内存空间,从而使得编程人员在写程序时不用考虑计算机中物理内存的实际容量。
MMU中有:
1、TLB(Translation Lookside Buffer):即转换旁路缓存,TLB时MMU的核心部件,它缓存少量的虚拟地址和物理地址的转换关系,是转换表的cache,因此也经常被成为“快表”。
2、TTW(Translation Table Walk):即转换表漫游,当TLB中没有缓冲对应的地址转换关系时,需要通过通过对内存中转换页表(大多数处理器的转换为多级页表)的访问来获得虚拟地址和物理地址的对应关系.TTW成功后,结果写入TLB中。
MMU具有虚拟地址和物理地址转换、内存空间访问权限保护等功能,这将使得linux操作系统能单独为每个用户进程分配独立的内存空间并保证用户空间不能访问内核空间的地址,为操作系统的虚拟内存管理模块提供硬件基础。

Cache作用

缓存的原理是,CPU读取数据时,首先从CPU高速缓存中查找,找到后立即读取并发送给CPU进行处理,如果找不到的话,可以从速度比较慢的存储器中读取并发送给CPU,在进行处理的同时,将该数据所在的数据块调入高速缓存,这样就不用调用内存,以后就可以从高速缓存中读取整个块的数据,这种读取机制使处理器读取高速缓存的命中率非常高,大多数处理器都在90%左右,也就是说CPU下一次读取的数据中,90%位于CPU高速缓存中,只有约10%需要从内存中读取,这大大节省了CPU直接读取内存的时间,从而使CPU在读取数据时几乎不需要等待,一般来说,CPU读取数据的顺序是先缓存后内存。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星空语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值