参考链接:
https://blog.youkuaiyun.com/qq_39422642/article/details/78676567
https://www.cnblogs.com/charlotte77/p/7759802.html
https://blog.youkuaiyun.com/weixin_42111770/article/details/80900575
相比于机器学习:
神经网络不需要做特征工程,特征提取高效
数据格式的简易性
参数数目少
输出特征图尺寸=(输入尺寸-卷积核尺寸)/步长+1
out_size=(input_size-filter_size)/stride+1
卷积运算是卷积核大小的矩阵的内积运算,不是矩阵乘法。即相同位置的数字相乘再相加求和。
一般情况下,根据实验得到的经验来看,会在越靠近输入层的卷积层设定少量的卷积核,越往后,卷积层设定的卷积核数目就越多。
越往后,卷积核设定的数目越多,越能体现label的特征就越细致,就越容易分类出来
池化层的主要目的是通过降采样的方式,在不影响图像质量的情况下,压缩图片,减少参数。
池化后输出尺寸计算方式同卷积后尺寸计算方式,取值计算为(最大值、均值)
“Zero Padding”(补零),它可以帮助我们保证每次经过卷积或池化输出后图片的大小不变
一般会选择尺寸为33的卷积核和1的zero padding,或者55的卷积核与2的zero padding,这样通过计算后,可以保留图片的原始尺寸。
那么加入zero padding后的feature_map尺寸 =( width + 2 * padding_size - filter_size )/stride + 1
RNN:
RNN结构中的参数在不同时刻中也是共享的。