ResNeXt网络结构,不是resnet!

本文分析了ResNeXt对ResNet的优化,尤其是在block设计上的变化,指出ResNeXt在保持计算量不变的情况下提高了精度。同时,作者讨论了分组卷积的概念,解释了其等价过程,并提到在特定深度(如32层以上)时,分组卷积可以显著提升模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天看劈里啪啦wz的视频发现,之前的东西真的是学的一塌糊涂啊,好些后面困扰自己很久的东西都是先前就接触过的,但没上心全忘了,后面在那里一直纠结浪费时间。

ResNeXt是在resnet的基础上进行了改进,更改了block,ResNeXt和resnet相比(图片是展示了50、101)计算量相同,但top-1 top-5错误率更低。另外论文里写了:这种改进在3层残差也就是50层以上的结果才有提精度的效果,18、34这种残差块里只有两层的浅层网络没有提精度的效果。

在此之前先介绍一下分组卷积

a) 为什么等价 如下图所示:假设分2组,都用1*1的卷积核,图片那里有点问题没画开。

b) 图:先将a图那四个feature map进行拼接,得到下图左边的四通道feature map,也是1*1卷积4通道,画的有点问题。

经过实验证明32的精度最高。 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值