神经网络建模中的自适应正则化
在神经网络建模中,正则化是一项关键技术,它能帮助模型更好地泛化,避免过拟合。然而,正则化参数的选择并非易事,不同的选择会对模型性能产生显著影响。本文将深入探讨自适应正则化的相关内容,包括其原理、算法以及在不同任务中的应用。
正则化选择的考量因素
正则化器的选择通常受以下因素驱动:
1. 成本函数的不适定性 :最小化成本函数通常是一个不适定的任务,正则化可以平滑成本函数,从而促进训练。例如,Hinton最初提出的权重衰减正则化(也称为岭回归)就是实现这一任务的简单方法。
2. 权重的先验知识 :当使用贝叶斯方法时,可以根据权重的先验分布来选择正则化项。权重衰减正则化可以看作是高斯先验,此外,还有拉普拉斯先验、软权重共享等其他类型的先验,以及用于限制权重数量的权重消除等先验。
3. 网络功能映射的期望特性 :通常,我们希望网络的功能映射是平滑的。一些正则化器会对映射的曲率进行惩罚,以实现平滑映射。
自适应正则化参数的算法
传统的正则化参数估计方法是对交叉验证误差进行或多或少的系统搜索和评估,但这种方法对于多个正则化参数并不适用。因此,可以基于梯度下降推导一种优化算法。
考虑一个依赖于 $q$ 个正则化参数的正则化项 $R(w, κ)$,其中 $κ$ 是包含这些参数的向量。由于估计的权重 $\hat{w} j = \text{arg} \min_w C {T_j}(w)$ 由正则化项控制,我们可以将交叉验证误差看作是正则化参数的隐函数:
[
超级会员免费看
订阅专栏 解锁全文
3238

被折叠的 条评论
为什么被折叠?



