深度学习的正则化,其实是这么一回事

本文深入解析机器学习中过拟合的问题,探讨正则化作为解决方案的本质和作用机制,通过参数范数惩罚等方法,帮助模型学会泛化而非死记硬背。

 

深度学习是机器学习的子集,也就是深度学习是机器学习中的某一个部分。

在机器学习中,对一个数据集进行拟合会出现3种情况:没有学到数据集中隐含的规律,这种叫欠拟合;恰好学到了数据集中最本质的部分,这种学习是可以泛化到未知数据集的;把数据集中所有的细枝末节都学到了,这种学习就很难迁移到未知数据集上,因为不知道把学到的哪部分匹配到未知数据上,似乎都适合,又似乎都不适合,这种叫过拟合。

欠拟合肯定不行,这就像课堂上那些上课不认真的,啥都没学到,遇到未知的东西自然两眼一摸黑,脑子里没有任何可适配的东西。

过拟合有点类似死读书,就是以前批判的教条主义。面对未知的情况,先掏出本本,看书上怎么说,看有没有匹配的。动不动就某某说,某某没说。

所以对过拟合,我们要做什么?

很显然,就是做减法,减掉那些学到的细枝末节,找出所学到的东西中最起作用的那部分。这就是正则化的原理。

正则化有几种方式。

参数范数惩罚

可能难以理解惩罚是何意。我们可以想想现实生活中受惩罚的后果会是什么?当你犯了错误,受了惩罚,你会怎样?如果你长记性,这个错误的行为你以后就会很少犯,所以惩罚的意思就等于减少。

所以参数范数惩罚就是根据范数来减少参数,最典型的一个做法就是权重衰减。在代价函数里,添加一个带权重的参数范数项,然后求权重的导数。经过这种处理,可以得出代价函数最敏感的维度得以保留,也就是在这个维度的变化都会引起代价函数的同比的变化,这说明这个维度或特征是一个主要影响因子,这样的特征当然要保留。而如果另外一个维度的大变化,代价行数都没怎么变化,这说明这个维度或特征对代价函数的影响微乎其微,所以其权重就将衰减到0或一个很小的值。

所以正则化本质上就是对学到过多东西的模型做减法,如何减,减掉哪个,是我们值得重点研究的东西。这就是为什么正则化的地位等同于优化,都是机器学习和深度学习中重要的研究领域。

这么一说,我们是不是就觉得正则化其实没那么神秘了。

正则化深度学习中一项重要的技术,用于防止模型过拟合,提高模型的泛化能力。在头歌平台的深度学习课程中,正则化主要包含以下几种常见的类型: ### L1和L2正则化 - **原理**:L1正则化是在损失函数中加入权重参数的绝对值之和,L2正则化则是加入权重参数的平方和。通过这种方式,在训练过程中会约束权重的大小,使得模型更加简单,减少过拟合的风险。 - **代码示例**:在使用Python和Keras库构建深度学习模型时,可以这样实现L2正则化: ```python from tensorflow.keras import regularizers from tensorflow.keras.layers import Dense from tensorflow.keras.models import Sequential model = Sequential() model.add(Dense(64, input_dim=100, kernel_regularizer=regularizers.l2(0.01))) ``` ### Dropout正则化 - **原理**:Dropout在训练过程中随机“丢弃”一部分神经元,使得模型不能过度依赖某些特定的神经元,从而增强模型的泛化能力。 - **代码示例**:在Keras中使用Dropout的示例如下: ```python from tensorflow.keras.layers import Dropout model = Sequential() model.add(Dense(64, activation='relu', input_dim=100)) model.add(Dropout(0.5)) model.add(Dense(1, activation='sigmoid')) ``` ### 早停法(Early Stopping) - **原理**:在训练过程中,监控验证集的性能,当验证集的性能不再提升时,提前停止训练,避免模型在训练集上过度学习。 - **代码示例**:使用Keras的EarlyStopping回调函数: ```python from tensorflow.keras.callbacks import EarlyStopping early_stopping = EarlyStopping(monitor='val_loss', patience=3) model.fit(X_train, y_train, validation_data=(X_val, y_val), callbacks=[early_stopping]) ``` ### 数据增强(Data Augmentation) - **原理**:通过对训练数据进行随机变换,如旋转、翻转、缩放等,增加数据的多样性,让模型学习到更多不同的特征,提高泛化能力。 - **代码示例**:在使用Keras的ImageDataGenerator进行图像数据增强: ```python from tensorflow.keras.preprocessing.image import ImageDataGenerator datagen = ImageDataGenerator( rotation_range=20, width_shift_range=0.2, height_shift_range=0.2, horizontal_flip=True ) datagen.fit(X_train) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值