基于PASTA加法器的有前景的硬件加速器
1. 引言
近年来,神经网络(NN)的研究在不同领域相较于传统计算方法有了显著提升。像循环神经网络(RNN)和卷积神经网络(CNN)等不同系统模型,已被提出用于图像、语音和视频处理研究领域。神经网络是大量的计算,它有意模仿生物大脑来识别模式。它们通过一种计算机识别、命名或打包粗略信息的方式来解读物质信息。
人工智能在物联网设备中有众多创新应用,如人脸识别、智能安全和图像识别。通常,顶级的人工智能计算依赖于云服务器,借助图形处理单元(GPU)强大的计算能力,在应用中实现高精度。然而,这种方式存在缺点:
- 对于基于云的应用,设备连接至关重要,在没有网络的地方无法运行这些应用。
- 数据的网络交换会导致巨大延迟,对于实时应用(如健康计划)来说是不可接受的。
- 大部分物联网应用有过高的能源和成本消耗,既无法承受邻近GPU的计算,也无法将大量图像和视频数据计算传输到数据中心。
深度学习由几个部分组成,层次包含节点。节点是进行计算的地方,通常基于人类神经元,当接收到足够的刺激时会触发。节点将数据输入与多个因素或权重相关联,这些权重根据算法的学习部分来优化输入。
自适应信号处理已发展成为一个独立领域,有广泛的实际应用,如自适应均衡、噪声和回声消除、线性预测编码和自适应波束形成。自适应信号处理算法以其递归任务为特征,用于实现算法的自我设计/调整。为了实现自适应信号处理算法的高吞吐量VLSI实现,通常使用工程级方法流水线。
流水线自适应信号处理系统基本上依赖于系统吞吐量和信号处理执行之间的权衡。例如,更深的流水线调整输入循环可以实现更高的吞吐量,但延迟的反馈会导致更大的执行退化。自定