[深度学习] 名词解释--正则化

博客围绕神经网络正则化展开,介绍其目的是防止模型过拟合,重点约束参数w。详细阐述了L1、L2正则化及Lp范数,对比了L0与L1、L1与L2的区别和适用场景,还从拉格朗日对偶和权重衰减角度理解正则化,指出正则化可减少过拟合但会使损失函数有误差。

正则化

花书的定义:凡是可以减少泛化误差(过拟合)而不是减少训练误差的方法,都叫正则化方法。

目的:拟合训练数据,防止模型过拟合,通常使用L2正则化.用各种方法规范模型参数的方法.

什么是神经网络的过拟合:

在最小化损失函数的前提下,最优的一组w和b并不是唯一的。最后的最优的w和b是什么很依赖你输入的初始w和b。若初始过大,则最优的也相对较大。

所以,如何我们只在训练集里使用我们的神经网络,则w和b是大是小都没有太大关系,但要在一个新的测试集里使用我们的神经网络,那新数据在和这个较大的参数相乘后会得到一个比较大的数值。如果没有误差,没有噪声,这一切看起来也没有问题,但这是不可能的,所以这个误差和噪声在经过大的权重相乘后也会被放大,这就很容易对判断结果造成影响。

所以我们的目的是控制参数范围,不让它过大(正则化的目的):

我们重点约束w就行,因为最后的模型过拟合还是不过拟合,重点还是在w身上,所以正则化重点考虑w。更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀)  

L1正则化

L1损失函数如下,首先,L1是通过稀疏参数(减少参数的数量)来降低复杂度 :

在这里插入图片描述

 上式可知,当w大于0时,更新的参数w变小;当w小于0时,更新的参数w变大;所以,L1正则化容易使参数变为0,即特征稀疏化

L2正则化

### 深度学习中召回和拟合的定义与含义 在深度学习领域,召回(Recall)和拟合(Fitting)是两个重要的概念,它们分别从模型评估和训练过程的角度描述了模型的表现。 #### 召回(Recall) 召回率是衡量模型识别样本能力的一个指标。具体来说,召回率计算的是所有实际为类的样本中,被模型确预测为类的比例[^1]。其公式可以表示为: ```python Recall = TP / (TP + FN) ``` 其中,`TP` 表示真例(True Positive),即实际为类且被模型确预测为类的样本数;`FN` 表示假负例(False Negative),即实际为类但被模型错误预测为负类的样本数。 召回率通常用于评估模型在检测类样本时的全面性。例如,在医疗诊断或异常检测任务中,高召回率尤为重要,因为漏检可能会带来严重后果。 #### 拟合(Fitting) 拟合是指模型通过训练数据调整参数以最小化损失函数的过程。根据模型对训练数据的适应程度,拟合可以分为以下几种情况: - **欠拟合(Underfitting)**:当模型过于简单,无法捕捉到训练数据中的模式时,称为欠拟合。这通常表现为训练误差和验证误差都较高[^4]。 - **过拟合(Overfitting)**:当模型过于复杂,过度学习了训练数据中的噪声和细节时,称为过拟合。这会导致模型在训练集上表现良好,但在测试集上的泛化能力较差[^3]。 - **良好拟合(Good Fitting)**:当模型能够在训练集和测试集上都表现出较低的误差时,说明模型达到了良好的拟合状态。 拟合的过程可以通过调整超参数、增加正则化项、使用更复杂的模型结构等方式来优化。例如,学习率的选择直接影响模型的拟合速度和效果。 ### 示例代码 以下是一个简单的深度学习模型训练过程,展示了如何通过调整学习率来改善拟合效果: ```python import tensorflow as tf # 定义模型 model = tf.keras.Sequential([ tf.keras.layers.Dense(64, activation='relu', input_shape=(input_dim,)), tf.keras.layers.Dense(1, activation='sigmoid') ]) # 编译模型,设置学习率 learning_rate = 0.01 optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate) model.compile(optimizer=optimizer, loss='binary_crossentropy', metrics=['accuracy']) # 训练模型 history = model.fit(x_train, y_train, epochs=50, validation_data=(x_val, y_val)) ```
评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值