1.上一节的封装能够让我们更方便地添加batch normalization的效果
因为bn在每一个卷积层的后面进行添加
2.添加bn:
对比注释:
3.在每一个conv层加上istraining:
pooling层不需要加
以上,bn就可以正常使用了~
4.训练效果:
这些只是在VGG上进行调参优化,还可以把同样的调参技巧用到RestNet等其他神经网络模型中去,可以达到更高的准确率(94%左右)
1.上一节的封装能够让我们更方便地添加batch normalization的效果
因为bn在每一个卷积层的后面进行添加
2.添加bn:
对比注释:
3.在每一个conv层加上istraining:
pooling层不需要加
以上,bn就可以正常使用了~
4.训练效果:
这些只是在VGG上进行调参优化,还可以把同样的调参技巧用到RestNet等其他神经网络模型中去,可以达到更高的准确率(94%左右)