正则化(Regularization)、归一化(Normalization)、权重初始化等

本文探讨了深度学习中的正则化方法,包括为何正则化能减少过拟合,Dropout Regularization的原理及应用。还介绍了其他如数据扩增和提早停止训练的正则化手段。此外,讨论了归一化在神经网络中的作用,以及权重初始化对于防止梯度消失和爆炸的重要性。最后,提到了梯度检验的注意事项,如不与dropout同时使用,并在训练前进行检验。

正则化(Regularization)

解决深度学习中的over-fitting(high variance)问题,有两个solutions,其中之一就是regularization,另外就是more data。
在这里插入图片描述
正则化就是在原cost function 中加入正则项

Why regularization can reduces overfitting?

直观上理解就是如果正则化系数λ\lambdaλ设置的足够大,那矩阵WWW就会很小,就会导致隐藏单元的影响被削弱,相当于网络被简化了。然后ZZZ也会变小,用tanh function来看,zzz很小的时候接近线性区。

因为一个简单网络是不容易造成overfitting的,所以综上正则化有利于预防过拟合。

Dropout Regularization

dropout 需要设置keep-prob阈值,遍历每个单元,然后通过keep-prob有选择地保留删除 neural network units。达到简化网络的作用。

最常用的就是 Inverted dropout(反转随机激活):通过除以keep-prop,可以确保aaa的期望值不变,no matter what keep-prop is。
dropout regularization 通常用于CV领域

Other regularization methods

数据扩增:图片放大,旋转,剪切等。得到的数据包含的信息随不能增加太多,但付出的代价几乎没有。
Easy stopping:提早停止训练神经网络。
根据训练误差或JJJ的优化函数,对比验证集误差,可以选择迭代过程停止的位置。
在这里插入图片描述

.
.

归一化(Normalization)

归一化实现数据转化需要两个步骤:

  • 零均值
  • 归一化方差

μ=1m∑i=1mx(i)μ = \frac{1} {m} \sum_{i=1}^{m} x^{(i)}μ=

<think>好的,用户想了解正则化归一化在机器学习中的作用和差异。首先,我需要回忆这两个概念的定义和应用场景。 根据引用[3]和[4],归一化是数据预处理的一部分,主要调整数据特征的范围,比如缩放到[0,1]或标准化为均值为0,方差为1。而正则化是用于防止模型过拟合,通过修改损失函数来约束模型参数的大小,比如L1或L2正则化。 接下来需要明确两者的区别。归一化作用于数据,处理的是特征尺度问题,帮助模型更快收敛或提高精度。正则化作用于模型参数,控制复杂度,避免过拟合。应用场景方面,归一化常用于涉及距离计算的模型,如SVM、KNN;正则化则在模型训练时用于线性回归、神经网络等。 用户可能混淆这两个概念,因为它们的中文翻译相近,但实际作用不同。需要举例说明,比如归一化用MinMaxScaler,正则化用L2惩罚项。同时,结合引用中的资料,确保信息准确。 最后,生成相关问题时要覆盖两者的定义、方法、应用场景和联合使用情况,帮助用户深入理解。</think>### 正则化归一化的区别及应用场景 #### 一、核心定义与作用 1. **归一化Normalization)** - **作用对象**:训练数据 - **目标**:消除特征间的量纲差异,将数据缩放到统一范围(如$[0,1]$或均值为0、方差为1),提升模型收敛速度和精度[^3][^4]。 - **常见方法**: - 最小-最大归一化:$$x_{\text{norm}} = \frac{x - x_{\min}}{x_{\max} - x_{\min}}$$ - Z-Score标准化:$$x_{\text{std}} = \frac{x - \mu}{\sigma}$$ - **应用场景**: - 涉及距离计算的模型(如SVM、KNN、聚类) - 梯度下降优化的模型(如神经网络、线性回归) 2. **正则化Regularization)** - **作用对象**:模型参数 - **目标**:通过约束参数大小防止过拟合,提升模型泛化能力[^3]。 - **常见方法**: - L1正则化(Lasso):$$L_{\text{new}} = L_{\text{original}} + \lambda \sum |w_i|$$ - L2正则化(Ridge):$$L_{\text{new}} = L_{\text{original}} + \lambda \sum w_i^2$$ - **应用场景**: - 高维数据(如线性回归、逻辑回归) - 复杂模型(如深度学习网络) #### 二、关键差异 | **维度** | **归一化** | **正则化** | |----------------|-----------------------------|-----------------------------| | 作用对象 | 数据特征 | 模型参数 | | 处理问题 | 特征尺度不一致 | 模型过拟合 | | 技术实现 | 数据预处理阶段 | 损失函数修改 | | 典型方法 | Min-Max、Z-Score | L1/L2正则化 | #### 三、联合使用案例 1. **图像分类任务** - 归一化:将像素值从$[0,255]$缩放到$[0,1]$以加速训练。 - 正则化:在神经网络中使用L2正则化约束权重,防止过拟合。 2. **线性回归预测** - 归一化:标准化特征,避免某些特征主导梯度下降方向。 - 正则化:添加Ridge正则化项,抑制多重共线性影响。 #### 四、选择原则 - **使用归一化**:当特征量纲差异大或模型依赖距离计算时(如KNN)。 - **使用正则化**:当模型复杂度高、训练误差低但测试误差高时(如深度网络过拟合)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值