【论文阅读】Deep Residual Learning for Image Recognition

论文简介:

《Deep Residual Learning for Image Recognition》文章出自微软亚洲研究院何凯明团队,其分别获得ImageNet 2015 Detection, localization,Classification 任务的第一名,也分别获得 COCO 2015 Detection,Segmentation 任务的第一名。

一、Introduction 介绍

更大更深的网络模型具有更强大的representation power,由于梯度消失、梯度爆炸(vanishing/exploding gradients)等原因,深层网络比浅层网络更难进行训练。梯度消失、梯度爆炸在网络训练的起始阶段就会阻碍网络的收敛,较好的初始化策略,数据的归一化处理,Batch normalization,正则化,Dropout等技术已经可以有效的促进深度网络的高效训练。BN层的引入基本解决了plain net的梯度消失和梯度爆炸问题。

对于深层网络出现了退化现象(degradation),对于相同的数据集,更深层的网络比浅层的网络在训练集和测试集上都具有更大的误差。这不是因为过拟合问题,过拟合是训练集误差更小,测试集误差较大。

对于一个浅层网络和深层网络来说,浅层网络的解空间包含于深层网络的解空间,深层网络的解应该不差于浅层网络的解,因为只需要将增加的多余层变为恒等映射,将其他层的权重原封不动的从浅层网络的对应层复制过来。更出色的解明明存在,却找到了较差的解。其表明不是所有的网络系统(浅层、深层)都具有相近的优化难度。

有两种解决思路,一种是调整求解方法,比如更好的初

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值