卷积神经网络:原理、架构与应用
1. 卷积神经网络基础
卷积神经网络(CNN)是现代深度学习中的主力军,尤其在视觉任务中表现出色,因其能够从空间关系中学习特征。下面我们将详细介绍CNN的主要组件。
1.1 池化层的争议
池化操作在卷积神经网络中被广泛使用,但也存在一些争议。池化操作可能会导致输入部分之间空间关系的丢失,这对于某些应用来说可能是至关重要的。例如,Geoffrey Hinton认为卷积神经网络中使用的池化操作是一个大错误,即便它目前效果不错,但这其实是一种“灾难”。如果池化窗口不重叠,池化会丢失关于物体位置的重要信息,而这些信息对于检测物体各部分之间的精确关系是必要的。
不过,允许池化操作重叠可以以一种粗略的方式保留一些空间关系。例如,使用一个2×2的窗口,但步长设为1而不是2。尽管存在这些担忧,池化层仍然是目前CNN实现中的重要组成部分,但在将其添加到模型时需要谨慎。
1.2 全连接层
在CNN中,全连接层是模型的重要组成部分。以图中的模型为例,从Flatten层开始的所有层构成了全连接层。很多人将Dense层称为全连接层,并认为其中包含Flatten操作、激活函数(如ReLU)以及在softmax层之前的可选dropout操作。
全连接层的参数数量较多。例如,在一个模型中,最终池化层输出有9216个元素(12×12×64 = 9216),连接到一个有128个元素的Dense层,那么就需要学习9216×128 = 1179648个权重,再加上128个偏置值。在该模型的1199882个参数(权重和偏置)中,98.3%的参数都在最终池化层和全连接层之间的转换中。这表明全连接层在需要学
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



