内容梳理a

本文深入解析了几种深度学习模型的工作原理和优缺点,包括解决退化问题的Resnet,特征重用的DenseNet,通道注意力机制的SENet,以及引入Transformer的ViT和Swin。Resnet通过残差学习避免深度网络的训练难题,DenseNet增强了特征传播,SENet利用注意力机制调整特征响应,ViT将Transformer引入视觉任务,而Swin则解决了ViT的计算复杂度问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Resnet:
在2015年之前,人们有个信念,就是网络越深、越宽,表征能力就越强。所以训练误差应该是会随着网络的加深而逐渐变小的,而测试误差则不一定,因为过深的模型可能是过拟合的。
训练误差和测试误差都在变高
然而何恺明等人却发现,加深模型到一定程度时,测试误差和训练误差都要比浅的模型的要高,这就对原来的信念提出了挑战。他将这一发现称之为深层模型的退化现象。而Resnet通过残差学习,解决了大型网络(层数多)的退化问题。
残差块
工作原理:
目前有很多学者对ResNet发挥作用的原因进行了解释。
根据BP算法中的导数的链式法则,将该公式的求导过程展开。

得到:
在这里插入图片描述
可以看到残差网络不会出现梯度消失问题,深层网络的梯度可以很方便地传导到浅层,从降低了大型网络(层数多)的训练难度。

Resnet取得的效果:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值