44、神经网络训练与优化全解析

神经网络训练与优化全解析

1. 参数初始化

由于深度神经网络(DNN)训练的目标函数是非凸的,参数初始化方式对最终的解决方案以及训练的难易程度(即信息在模型中前向和后向传播的效果)起着重要作用。以下是一些常见的启发式参数初始化方法:
- 启发式方法
- Xavier初始化(Glorot初始化) :从标准正态分布中采样参数可能导致输出方差远大于输入方差,从而引发梯度爆炸。为解决此问题,建议从均值为0、方差为 $\sigma^2 = 1/fan_{avg}$ 的高斯分布中采样参数,其中 $fan_{avg} = (fan_{in} + fan_{out})/2$,$fan_{in}$ 是单元的输入连接数,$fan_{out}$ 是输出连接数。
- LeCun初始化 :当使用 $\sigma^2 = 1/fan_{in}$ 时,即为LeCun初始化。当 $fan_{in} = fan_{out}$ 时,它等同于Glorot初始化。
- He初始化 :使用 $\sigma^2 = 2/fan_{in}$ 的方法称为He初始化。

不同激活函数适用的初始化方法如下表所示:
| 激活函数 | 推荐初始化方法 |
| ---- | ---- |
| 线性、tanh、logistic、softmax | Glorot初始化 |
| ReLU及其变体 | He初始化 |
| SELU | LeCun初始化 |

此外,还有数据驱动的参数初始化方法:
-

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值