1. 卷积公式:
2.卷积运算特点:
稀疏交互:
3. 池化
池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。 例如,最大池化函数给出相邻矩形区域内的最大值。 其他常用的池化函数包括相邻矩形区域内的平均值、
不管采用什么样的池化函数,当输入作出少量平移时,池化能够帮助输入的表示近似不变。 对于平移的不变性是指当我们对输入进行少量平移时,经过池化函数后的大多数输出并不会发生改变。
局部平移不变性是一个很有用的性质,尤其是当我们关心某个特征是否出现而不关心它出现的具体位置时。
使用池化可以看作是增加了一个无限强的先验:这一层学得的函数必须具有对少量平移的不变性。 当这个假设成立时,池化可以极大地提高网络的统计效率。
当我们对分离参数的卷积的输出进行池化时,特征能够学得应该对于哪种变换具有不变性,如下图所示。
4. 基本卷积函数的变体
我们有时会希望跳过核中的一些位置来降低计算的开销(相应的代价是提取特征没有先前那么好了)。 我们可以把这一过程看作是对全卷积函数输出的下采样(downsampling)。 如果我们只想在输出的每个方向上每间隔
s
个像素进行采样,那么我们可以定义一个下采样卷积函数
5. 结构化输出
对图像逐个像素标记的一种策略是先产生图像标签的原始猜测,然后使用相邻像素之间的交互来修正该原始猜测。 重复这个修正步骤数次对应于在每一步使用相同的卷积,该卷积在深层网络的最后几层之间共享权重。 这使得在层之间共享参数的连续的卷积层所执行的一系列运算,形成了一种特殊的循环神经网络。 下图给出了这样一个循环卷积网络的结构。
6. 数据类型
7. 高效的卷积算法
- 卷积等效于使用傅立叶变换将输入与核都转换到频域、执行两个信号的逐点相乘,再使用傅立叶逆变换转换回时域。
- 当一个
d 维的核可以表示成 d 个向量(每一维一个向量)的外积时,该核被称为可分离的。 它等价于组合d 个一维卷积,每个卷积使用这些向量中的一个。 组合方法显著快于使用它们的外积来执行一个 d 维的卷积。 并且核也只要更少的参数来表示成向量。 如果核在每一维都是w 个元素宽,那么朴素的多维卷积需要 O(wd) 的运行时间和参数存储空间,而可分离卷积只需要 O(w×d) 的运行时间和参数存储空间。8. 随机或无监督的特征
通常,卷积网络训练中最昂贵的部分是学习特征。 减少卷积网络训练成本的一种方式是使用那些不是由监督方式训练得到的特征。
有三种基本策略可以不通过监督训练而得到卷积核:
1. 简单地随机初始化它们。
2. 手动设计它们,例如设置每个核在一个特定的方向或尺度来检测边缘。
3. 使用无监督的标准来学习核。 例如,将 k 均值聚类算法应用于小图像块,然后使用每个学得的中心作为卷积核。 使用无监督的标准来学习特征,允许这些特征的确定与位于网络结构顶层的分类层相分离。 然后只需提取一次全部训练集的特征,构造用于最后一层的新训练集。 假设最后一层类似逻辑回归或者SVM,那么学习最后一层通常是凸优化问题。9. 卷积网络的神经科学基础
初级视觉皮层细胞具有由Gabor函数所描述的权重。 Gabor函数描述在图像中的2维点处的权重。我们可以认为图像是2维坐标
I(x,y) 的函数。 类似地,我们可以认为简单细胞是在图像中的一组位置采样,这组位置由一组 x 坐标X 和一组 y 坐标Y 来定义,并且使用的权重 w(x,y) 也是位置的函数。 从这个观点来看,简单细胞对于图像的响应由下式给出:
这里 α,βx,βy,f,ϕ,x0,y0,τ 都是控制Gabor函数性质的参数。 下图给出了Gabor函数在不同参数集上的一些例子: