为什么正则化能减少模型过拟合程度

本文通过直观的图表和实例解析了正则化如何帮助减少机器学习模型的过拟合现象。首先介绍了过拟合的基本概念,并展示了通过调整权重大小使模型复杂度下降的过程。接着,针对线性模型和神经网络,详细说明了正则化系数的作用及其如何影响模型的非线性程度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如何才能直观解释正则化减少过拟合的原理?

(1)过拟合

以下图为例。High Bias(高偏差)就是欠拟合,High Variance(高方差)就是过拟合。

这里写图片描述

为了将过拟合的模型变为正好(Just Right),从图中直观上来看,只需要减小高次项的权重。

这就是降低过拟合的直观理解。从数学上,我们用正则化来降低模型的过拟合程度。

(2)正则化

简单来说,所谓正则化,就是在原Cost Fucntion上添加正则化项(如下图)。

这里写图片描述

正则化项能减少模型的非线性程度,从而降低模型的过拟合。从图中来看,正则化项能将过拟合的模型(蓝色)变为Just Right的模型(粉红色)。

(3)为什么正则化有效?

分情况讨论

  • A. 对于线性模型,其添加了正则化项的Cost Function如下图。

这里写图片描述

直观的理解,如果我们的正则化系数(lambda)无穷大,则权重w就会趋近于0。权重变小,非线性程度自然就降低了。

  • B. 对于神经网络,其激活函数(以tanh为例)如下图

这里写图片描述

直观的理解,如果我们的正则化系数(lambda)无穷大,则权重w就会趋近于0。权重变小,激活函数输出z变小。z变小,就到了激活函数的线性区域,从而降低了模型的非线性化程度。

参考

Andrew NG的视频

### 正则化的定义及其在过拟合中的作用 正则化是一种用于降低模型复杂度的技术,其主要目的是通过约束模型参数的空间来减少过拟合的风险。在机器学习和深度学习中,过拟合通常发生在模型过于复杂以至于它不仅捕捉到了数据的真实模式,还学会了噪声或随机波动的情况。这种情况下,模型可能在训练集上表现良好但在测试集上的性能较差。 #### L1 和 L2 正则化的作用机制 L1 和 L2 是两种常见的正则化形式。它们分别通过对权重向量施加不同的惩罚项来影响模型的学习过程: - **L1 正则化**:也称为 Lasso 回归,会在目标函数中加入绝对值形式的惩罚项 \(\lambda ||w||_1\)。这会导致部分权重被缩减至零,从而实现特征选择的效果[^4]。 - **L2 正则化**:又名 Ridge 回归,则是在成本函数里增加平方形式的惩罚项 \(\frac{\lambda}{2} ||w||^2_2\)。相比 L1,这种方式不会让任何单一维度完全消失,而是均匀地缩小所有权重大小,有助于平滑决策边界并提升泛化能力。 两者都能有效抑制那些不必要的高幅振荡行为,进而缓解因过度拟合而导致的一系列问题。 #### Dropout 技术作为另一种类型的正则器 除了传统的基于范数的方法外,在神经网络领域还有专门设计用来对抗过拟合现象的技术——Dropout。该策略于每次迭代期间临时移除一定比例的节点(连同他们的连接),迫使剩余单元承担更多责任的同时减少了相互依赖关系的发展可能性[^1]。如此一来便可以看作是对整个架构进行了某种意义上的“平均”,最终达到增强稳定性的目的。 ```python import tensorflow as tf from tensorflow.keras.layers import Dense, Dropout model = tf.keras.Sequential([ Dense(128, activation='relu', input_shape=(input_dim,)), Dropout(rate=0.5), # 添加dropout层以应用此技术 Dense(num_classes, activation='softmax') ]) ``` 以上代码片段展示了如何利用 Keras API 构建含 dropout 的简单全连接分类器实例。 #### 批标准化(Batch Normalization)间接促进正则效果 尽管批标准化最初是为了加速收敛而提出的解决方案之一,但它同样具备一定的正则特性。因为每一批次的数据都会重新计算均值与标准差来进行调整,这就相当于引入了一种额外的变化因素进入系统内部;即使对于同样的样本集合而言也是如此。因此即便没有显式的添加其他形式的正则组件,仅依靠 BN 单独运作也可能观察到一定程度上的抗过拟合作用。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值