caffe设计网络教程(一)

本文探讨了基于VGG网络的三种改良方案,并通过实验证明了这些方案在小目标检测任务上的性能差异。最终确定了第三种方案效果最佳,不仅提高了小目标检测的准确率,还降低了误检率。

假设现在我们要设计一个基于VGG的网络,主要考虑的问题是可否修改VGG类似于resnet那样,应该怎么修改?更具体来说,我们需要在VGG网络上考虑eltwise层,现在我们有三种方案,如下:

方案一:直接对相应层进行bn,之后加eltwise sum。

方案二:在进行bn层之前加kernel为1的卷积层,然后bn,最后加eltwise sum。

方案三:直接在相应层进行bn之后,加kernel为1的卷积层,最后加eltwise sum。

这三种方案似乎都是可行的。那问题是这三种方案的性能会有差异吗?我们虽然讨论了深度学习的训练其实和初始化以及调参关系很大,参考这篇博客。但是并没有说过如何设计一个有效的网络,当然这篇博客意在启发读者,就目前来看,研究网络架构也是CNN的一大主题,不乏niubility的论文,因此各种网络层出不穷。换句话说,我们想验证的是直接eltwise sum和间接eltwise sum的性能有无差异,这三种类似的网络的效果怎么样?接下来看看这三种方案有没有区别。使用kernel 为1的卷积层意在压缩特征表示,即减少channel数目,它并不改变特征图大小,仅仅是对提取的特征进行精炼。

结果显示,三个方案的性能很接近,但即使这样,也能在某些具体的场合拉开它们的性能。其中,我最关注的是这三种方案对小目标检测性能的改善情况,训练结果附录下表:

通过实验验证集验证,得到如下结论。

结论:方案三的性能最好,对小目标检测明显优于另两种方案,而且明显改善了误检率,得到更深度更有效的语义信息。

转载于:https://www.cnblogs.com/cvtoEyes/p/8663713.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值