时间:2019/3/30
内容:卷积和池化
课时12:卷积和池化
全连接层

卷积层
卷积层和全连接层最大的区别是它可以保留空间结构。我们不用将图片像上述用全连接层处理那样将其展开成一个长向量,可以保持图片三维输入的结构
每个卷积核大小是5*5,一共有3个卷积核
工作细节:



激活映射里的值就是卷积核在每个位置求得的结果。当我们处理一个卷积层时,我们希望用到多种卷积核。例如下图用到了6个卷积核

那么在CNN中如何使用这些卷积层呢?ConvNet是由多个卷积层组成的一个序列,它们依次堆叠,就像之前讲的神经网络中那样堆叠简单的线性层一样。

这些层每个会采用多个卷积核,每个卷积核会产生一个激活映射



池化层大大降低了激活映射的采样尺寸


输出深度是使用卷积核的数量。零填充的目的是为了保证输入图像的尺寸,否则会尺寸迅速减小,损失一些信息

每个边上增加宽度为2的填充

对每个卷积核,输出都是3232,这里有10个卷积核,因此output是3232*10(是个激活映射);这一层中的参数是多少呢?

这里3是权重(即输入深度),1是偏差项的参数数目

F:filter size

本文介绍了卷积神经网络中的核心概念——卷积和池化。卷积层通过使用多个卷积核来保留输入图像的空间结构,并生成激活映射。池化层则用于降低激活映射的维度,减少计算复杂度。文中还详细解释了卷积核大小、数量及零填充的作用。

被折叠的 条评论
为什么被折叠?



