7、深度学习中的正则化策略

深度学习中的正则化策略

在机器学习领域,使算法不仅在训练数据上表现良好,而且在新输入数据上也能有出色表现,是一个核心问题。为了实现这一目标,人们采用了多种策略,这些策略统称为正则化。正则化旨在减少测试误差,有时可能会以增加训练误差为代价。以下将详细介绍深度学习中常用的正则化策略。

1. 参数范数惩罚

许多正则化方法通过在目标函数 $J$ 中添加参数范数惩罚 $\Omega(\theta)$ 来限制模型的容量,正则化后的目标函数 $\tilde{J}$ 定义为:
$\tilde{J}(\theta; X, y) = J(\theta; X, y) + \alpha\Omega(\theta)$
其中,$\alpha \in [0, \infty)$ 是一个超参数,用于权衡范数惩罚项 $\Omega$ 相对于标准目标函数 $J$ 的贡献。当 $\alpha = 0$ 时,不进行正则化;$\alpha$ 值越大,正则化程度越强。

1.1 L2 参数正则化

L2 参数正则化,也称为权重衰减,是最常见的参数范数惩罚形式之一。它通过在目标函数中添加正则化项 $\Omega(\theta) = \frac{1}{2}|w|_2^2$,使权重更接近原点。在一些学术领域,L2 正则化也被称为岭回归或 Tikhonov 正则化。

对于一个简单的线性模型,假设没有偏置参数($\theta = w$),正则化后的目标函数为:
$\tilde{J}(w; X, y) = \frac{\alpha}{2}w^Tw + J(w; X, y)$
对应的参数梯度为:
$\nabla_w\tilde{J}(w; X, y)

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值