11、深度网络优化:挑战与解决方案

深度网络优化:挑战与解决方案

1. 误差表面的平坦区域

在优化深度网络时,我们会计算插值参数下的损失:

# Compute loss given interpolated parameters
loss = inference(trainloader, model, loss_fn)
results.append(loss.item())

多次运行实验后发现,真正困扰梯度下降的并非棘手的局部极小值,而是难以找到合适的移动方向。

在误差表面,我们注意到一个特殊的平坦区域,当接近 alpha = 1 时,梯度趋近于零。这种梯度为零的点被称为临界点,临界点有多种类型:
- 局部极小值:函数在局部范围内的最小值点。
- 局部极大值:函数在局部范围内的最大值点,对随机梯度下降影响不大。
- 鞍点:介于局部极小值和局部极大值之间的“平坦”区域,随着模型参数维度的增加,鞍点出现的概率比局部极小值呈指数级增长。

对于一维成本函数,临界点有三种形式,假设每种形式等概率出现,那么随机临界点为局部极小值的概率为 1/3。对于 d 维空间的成本函数,随机临界点为局部极小值的概率为 1/3^d 。这意味着随着参数空间维度的增加,局部极小值变得越来越罕见。

这些平坦区域对于随机梯度下降来说虽然麻烦,但最终不会阻止其收敛到较好的结果。然而,对于那些试图直接求解梯度为零的点的方法,如某些二阶优化方法,会带来严重问题。

2. 梯度指向错误方向

深度网络优化的关键挑战在于找到

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值