MLP(感知神经网络)存在的问题对于高维感知机,会存在参数过多,模型训练困难的问题。
两个原则平移不变性,局部性
二维交叉相关和二维卷积
二维交叉相关和二维卷积由于对称性,在实际使用中没有区别
00+11+32+43 = 19
卷积层实现的是二维交叉相关操作
一维交叉相关
卷积层将输入和核矩阵进行交叉相关,加上偏移后得到输出
核矩阵和偏移是可以学习的参数
核矩阵的大小是超参数
给定(3232)输入图像
应用55大小的卷积核
第1层得到输出大小2828
第7层得到输出大小:44
更大的卷积核可以更快地减少输出大小
形状从nhnw减少到(nk-kh+1)(nw-kw+1)
存在的问题是:层数不能超过7层,第7层已经不能使用卷积核了
如果想做更深的神经网络呢?
1.填充
边界填充0