AI在硬件与应用领域的发展与应用
1. AI硬件发展历程
1.1 GPU在AI中的崛起
2011年,谷歌大脑项目通过在YouTube上观看电影训练AI识别猫和人的区别,为此动用了谷歌大型数据中心的2000个CPU。然而,很少有人能有如此资源来复制这项工作。
另一方面,NVIDIA的Bryan Catanzaro和斯坦福大学的Andrew Ng使用12个NVIDIA GPU成功复制了谷歌的工作。此后,人们意识到GPU可以取代大量配备CPU的计算机系统,从而推动了各种AI项目的发展。2012年,多伦多大学的Alex Krizhevsky使用GPU赢得了ImageNet计算机图像识别竞赛,众多研究人员使用GPU也取得了惊人的成功。
1.2 深度学习处理器(DLP)的出现
研究人员一直在寻找更好的方法来训练、验证和测试用于创建AI应用的模型,其中一种方法是使用新的计算技术,另一种是增加处理能力,如使用GPU。但GPU也有局限性,它仅在矩阵操作和大规模并行处理方面表现出色,因此人们一直在寻找更好的解决方案。
1.2.1 DLP的定义
深度学习处理器(DLP)是一种专门的处理器,在训练、验证、测试和运行AI应用方面具有优势,它试图为AI应用创造一个即使在较小或性能较弱的设备上也能快速运行的环境。大多数DLP具有以下特点:
- 独立的数据和代码内存区域
- 独立的数据和代码总线
- 专门的指令集
- 大的片上内存
- 大的缓冲区以鼓励数据重用模式
2014年,Tianshi Chen等人在一篇白皮书中提出了第一个DLP——DianNo
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



