该网络卷积核均为3*3的矩阵,每次池化以后,Vgg便通过添加特征图个数来弥补长宽上缺失的特征。且虽然他的效率比原始神经网络要好15%左右,但是在训练时间上,Vgg训练时间大概以天为单位,且对于此网络,当层数达到16时,它比预想中的30层效果要好得多,这并不太符合我们理解的深度学习(越深效果越好),而是因为每一次在上一次的特征前提下提取,得到的结果,并不一定比上一次更好。。。
该网络卷积核均为3*3的矩阵,每次池化以后,Vgg便通过添加特征图个数来弥补长宽上缺失的特征。且虽然他的效率比原始神经网络要好15%左右,但是在训练时间上,Vgg训练时间大概以天为单位,且对于此网络,当层数达到16时,它比预想中的30层效果要好得多,这并不太符合我们理解的深度学习(越深效果越好),而是因为每一次在上一次的特征前提下提取,得到的结果,并不一定比上一次更好。。。