摘 要
近些年来,深度学习作为机器学习的一种新的形式,它使计算机能够从经验 中学习并根据概念层次来理解世界。作为一种崭新的人工神经网络方法,卷积神 经网络(CNN)使神经元之间可以权值共享来减少样本的训练参数使分类的泛化 能力和精确度更进一步的提高。因此CNN在图像识别领域成功得到了广泛的推 广和应用。目前,实现CNN的主要方式通常是基于通用处理器的,但这种基于 软件的方式并不能让CNN的并行性得到充分挖掘,并且使应用在实时性、灵活 性和功耗等方面的需求都不能得到满足。除此之外,由于任何一个CNN模型都 无法对所有数据集进行最佳泛化,因此在将CNN应用于新数据集之前,必须先 选择一组适当的超参数。为新数据集选择新的模型可能是一个耗时且繁琐的任务。 被调整的超参数的数量以及每个新的超参数集合的评估时间使得它们在CNN模 型中的优化尤其困难。
本项目采用一个由Xilinx(赛灵思)公司推出的一个支持软硬件协同设计的 SoC产品ZYNQ平台,ZYNQ开发能让我们既获益ARM丰富的生态系统资源, 又可以获益于FPGA的灵活性和可扩展性。本论文详细介
本文探讨了基于ZYNQ平台的卷积神经网络(CNN)硬件加速器设计及其应用,指出CNN在图像识别领域的广泛应用。文章提出了一种结合改进的贝叶斯优化算法的CNN超参数优化方法,以解决CNN在不同框架下的超参数选择难题。实验表明,改进的优化算法在性能上优于同类算法,并在ZYNQ平台上实现了硬件加速,提高了CNN的处理速度和能效。研究还展示了在ZYNQ平台上CNN软硬件协同系统的优势,为未来CNN应用提供了新视角。
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



