卷积神经网络:原理、结构与应用
1. 引言
自2012年以来,神经网络在相关竞赛中一直表现出色。如今,卷积神经网络(Convolutional Neural Networks, CNN)在图像分类领域的主导地位已得到广泛认可,近期竞赛的参赛模型几乎都是卷积神经网络。2012年的ImageNet竞赛中,AlexNet大幅领先,取得了显著成功。近年来,卷积神经网络在准确率上的提升非常显著,改变了该领域的研究格局。尽管2012 - 2015年期间取得了令人瞩目的性能提升,但从概念层面来看,近期获胜的卷积神经网络与早期的网络架构差异相对较小。不过,在处理各类神经网络时,一些细节往往起着至关重要的作用。
卷积神经网络成功的秘诀在于根据特定领域的语义理解来定制网络结构。它采用稀疏连接和高度的参数共享,以一种与领域相关的方式进行构建。具体而言,某一层中的并非所有状态都与上一层的状态随意连接,而是该层的一个特征值仅与上一层的局部空间区域相连,并且在图像的整个空间范围内使用一组共享参数。这种架构可视为一种领域感知的正则化方法,其灵感源自Hubel和Wiesel早期的生物学研究。
循环神经网络(Recurrent Neural Networks, RNN)也具有一定程度的领域感知正则化,它共享不同时间步的参数,基于时间依赖关系随时间保持不变的假设。循环神经网络基于对时间关系的直观理解,而卷积神经网络则基于对空间关系的直观理解,后者的灵感直接来源于猫视觉皮层中生物神经元的组织方式。卷积神经网络的巨大成功促使我们探索如何利用神经科学知识巧妙地设计神经网络。尽管人工神经网络只是生物大脑真实复杂性的简化模型,但我们不应低估通过研究神经科学基本原理所获得的直觉。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



