
摘要: 现代电子产品和设备在诸如通信 、娱乐 、安全和医疗保健等许多方面改善了我们的生活质量 ,这主要是因为现代微电子技术的发展极大地改变了人们的日常工作和互动方式。在过去几十年中,摩尔定律一直是通过不断缩小芯 …
人工智能学习离不开实践的验证,推荐大家可以多在FlyAI-AI竞赛服务平台多参加训练和竞赛,以此来提升自己的能力。FlyAI是为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台。每周免费提供项目开源算法样例,支持算法能力变现以及快速的迭代算法模型。
现代电子产品和设备在诸如通信 、娱乐 、安全和医疗保健等许多方面改善了我们的生活质量 ,这主要是因为现代微电子技术的发展极大地改变了人们的日常工作和互动方式。在过去几十年中,摩尔定律一直是通过不断缩小芯片上的器件特征尺寸来提高计算能力 ,带来了电子产品诸如更高速度 、更低成本和更小功耗等优势。Gordon Moore 最初的观察是芯片中的晶体管数量大约每 2 年增加 1 倍 ,David House 进一步预测 ,由于更多更快的晶体管 ,芯片性能将每 18 个月翻一番。虽然 Gordon Moore 的预测已经成功超过 50 年 ,但是今天的硅 CMOS 技术正在 接近其尺寸的基本物理极限,摩尔定律的延续性已经变得越来越具有挑战性。
这意味着电子产品和设备的性能增益不再仅仅依赖于器件特征尺寸的缩小 ,人们有必要发明新的 IT 技术或新的计算原理 ,以满足应用对计算能力和低功耗等方面不断增长的需求 ,而人工智能的出现为突破这种局限性提供了无限可能。人工智能(artificial intelligence,AI)指由人制造出来的机器来呈现人类智能的技术 ,而人工智能芯片指能够运行人工智能技术和相关算法的半导体芯片。本文将对人工智能芯片的研究进展及市场发展进行介绍 。
1.人工智能芯片的发展
据了解 ,人工智能(AI)技术的发展和应用在美国 、中国和欧盟等世界主要国家中已经成为国家战 略 ,在国家的科技发展和产业竞争中占据越来越重要的位置。同时,AI技术在手写识别(例如MNIST数据集[1] )、人脸识别(例如 Facebook 的 DeepFace [2] )、 语音识别(例如亚马逊的 Alexa [3] 、Apple 的 Siri [4] 、微 软的Cortana [5])、机器人技术(例如机器人操作系 统[6])、自动驾驶(例如Tartan Racing[7]),甚至智力游 戏(例如 Google 的 AlphaGo [8] )和视频游戏(例如 Pac- mAnt [9] )等领域得到了广泛应用。随着人工智能的 发展 ,产生了更多的专业技术 ,比如神经网络模型 、 机器学习等 ,依靠经验学习而不是编程来做出决 策。反过来 ,机器学习为深度学习奠定了基础 ,深度 学习涉及分层算法 ,以便更好地理解数据 。
自 20 世纪 50 年代开始 ,人类对人工智能技术的探索从来就没有停止过 。“人工智能”一词是由科学家约翰 · 麦卡锡(John McCarthy)、克劳德 · 香农(Claude Shannon)和马文·明斯基(Marvin Minsky)于1956 年在达特茅斯会议上提出的 ,从此揭开人工智能研究的序幕。1962 年 Rosenblatt 出版《神经动力学 原理》及其 1957 年设计的模拟计算器 ,被视作深度神 经网络模型的算法原型。1969 年 ,Minsky 与 Papert出版《感知器》,指出单层神经网络训练出来的图像 识别算法连对称图形都无法正确识别。
对于多层神经网络 ,由于人造神经元的运算极限严重受限于当 时计算机的算力不足 ,导致多层神经网络也无法被 当时和后来的计算机的芯片运算效能实现 ,这造成了人工神经网络领域在 1970 年代的寒冬时期。
1982年,日本开始第五代计算机项目研究计划,同时美国也投入不少资源在第五代计算机的研发中 ,但最终依然无法解决图像和音讯识别的重大问题。1985年 ,Hinton 与 Sejnowski 发表了之前被视为不可能实 现的基于玻尔兹曼机的“多层神经网络”,1986 年, Rumelhart和Hinton发表“BP反向传播算法”,1989年 ,贝尔实验室成功利用反向传播算法 ,在多层神经网络开发了一个手写邮编识别器。同年,Mead 出版Analog VLSI and Neural Systems ,开创了基于仿生芯片的神经形态工程领域。
1993 年,Yann Le Cun 的团队使用 DSP 在一台 486 电脑上实现深度学习算法 ,其 作为推理芯片,已可辨识手写的数字。至此 ,通用芯片 CPU 的算力大幅提升 ,但仍无法满足多层神经网络的计算能力需求。1994 年 ,Michael Gschwind 等使 用 FPGAs 实现神经网络的算法应用,1998 年 ,Yann Le Cun 和 Yoshua Bengio 发表了手写识别神经网络和 反向传播优化相关的论文“Gradient-based learning applied to document recognition”,开创了卷积神经网络时代的到来。
2006 年 ,Hinton 提出受限玻尔兹曼机模型与深度信念网络 ,成功地训练多层神经网络 , 解决了反向传播算法局部较佳解问题 ,并把多层类 神经网络称作“深度学习”,首次证明了大规模深度 神经网络学习的可能性。2007 年 ,英伟达开发出统 一计算架构(CUDA),研究人员透过 CUDA 可以轻 松使用 C 语言开发 GPU ,使得 GPU 具有方便的编程 环境可以直接编写程序。2008 年 ,英伟达推出 Tegra芯片 ,作为最早的可用于人工智能领域的 GPU ,如今已成为英伟达最重要的 AI 芯片之一 ,主要用于智能驾驶领域。2009 年 ,Rajat Raina 和吴恩达联合发表利用 GPU 完成深度学习训练的论文“Large-scale Deep Unsupervised Learning Using Graphic Processors”。2010 年 ,IBM 首次发布类脑芯片原型模拟大脑结构 ,该原型具有感知认知能力和大规模并 行计算能力。
2012 年 ,Krizhevsky 与 Hinton 的团队采用 GPU 架构结合卷积神经网络(CNN)算法 ,在ImageNet 大赛中 ,将图像识别错误率降到 18% ,并在NIPS 会议上发表图像识别论文“Image Net Classification with Deep Convolutional NeuralNetworks”。这一突破性的成果 ,让人们第一次惊喜 地看到神经网络的算力需求可被现行计算设备满足。不过,这一成果也有它的美中不足:他们使用的GPU 架构芯片并非针对神经网络架构设计 ,其中包 含许多运行神经网络时不需要的架构设计 ,因此效率提升有限。就在同一年 ,Google Brain 用 1.6 万个GPU 核的并行计算平台训练 DNN 模型 ,在语音和图 像识别等领域获得巨大成功 ,2013 年 GPU 开始广泛 应用于人工智能领域 ,高通公司发布 Zeroth。2014年,中国科学研究院的陈天石博士(寒武纪创办人) 团队发表以 DianNao [10] 为名的人工智能专用加速芯片 系 列 论 文( 包 含 DaDianNao [11] 、PuDianNao [12] 、ShiDianNao [13] 、Cambricon-X),开启人工智能加速专 用芯片(ASIC)的研究领域。也在同年 ,英伟达发布 较早的为深度学习设计的 GPU 架构 Pascal,IBM 发布第二代 TrueNorth。
2015 年 ,Jason Cong 在当年的国 际FPGA大会上,发表1篇FPGA加速DNN算法的论文“Optimizing FPGA- based Accelerator Design for Dee

本文探讨了人工智能芯片的发展历程,从20世纪50年代的初步探索到现代深度学习的广泛应用,涵盖了GPU、FPGA、ASIC和神经拟态芯片等技术。分析了AI芯片在服务器端和移动端的应用,以及中国AI芯片市场的现状与挑战。
最低0.47元/天 解锁文章
627

被折叠的 条评论
为什么被折叠?



