内存计算技术:突破传统架构瓶颈
1. 内存墙问题:计算发展的瓶颈
在传统的计算机设计中,存储和计算的角色是分开的,内存负责存储数据,处理器负责计算数据。然而,随着计算工作负载的数据密集化趋势加剧,这种传统架构面临着严重的“内存墙”问题。
1.1 内存墙的本质
内存墙最初指的是快速处理器和慢速内存之间速度差距不断增大的问题。在过去三十年中,芯片上的处理器核心数量稳步增加,但内存延迟相对保持不变。这导致了内存带宽和内存能耗在计算带宽和能耗中占据主导地位。随着数据密集型应用的出现,这个问题变得更加严重,如今大量的能量都消耗在内存和计算单元之间的数据来回移动上。
1.2 应对内存墙的传统策略
三十多年来,架构师们尝试了各种策略来克服内存墙问题,其中大部分策略围绕着利用数据局部性和构建更深的内存层次结构展开。
2. 内存计算:解决内存墙的新途径
为了突破内存墙的限制,一种新的思路是将计算单元与内存单元更紧密地结合在一起,模糊计算和内存之间的界限。这种方法有多种形式,带来了显著的好处。
2.1 处理内存(PIM)的发展
早期的研究尝试将离散的计算单元放置在主内存(DRAM)内部,这种方法被称为处理内存(PIM)。早在20世纪70年代就有人提出相关建议,90年代研究人员开始深入讨论。但由于当时在DRAM芯片内集成计算单元的成本过高,且得益于摩尔定律和登纳德缩放定律,还有更廉价的优化方法,所以PIM在当时并未得到广泛应用。
直到2010年代初,像美光的混合内存立方体(HMC)这样的商用3D芯片堆叠技术的出现,重新唤起了人们对PIM的兴趣。HM
超级会员免费看
订阅专栏 解锁全文
1337

被折叠的 条评论
为什么被折叠?



