keras避免过拟合 阅读笔记

1.每一层的神经元数量,以及有多少层可以通过validation_loss值来较为直观的查看。 **A lower validation loss signals a better model.**val_loss达到最小值时得到的这个模型通常是最好的。

import matplotlib.pyplot as plt
val_loss = history.history['val_loss']

# b is for "solid blue line"
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()

2.正则化
根据奥卡姆剃刀原则,简单的模型应该比复杂的模型更不容易过拟合,应该对损失函数进行最小化的同时,也需要让对参数添加限制,这个限制也就是正则化惩罚项。 常用的正则化方式有L1,L2正则化。在keras中,

from keras import regularizers
#三种可用的正则化方法
keras.regularizers.l1(0.)
keras.regularizers.l2(0.)
keras.regularizers.l1_l2(0.)

model.add(layers.Dense(16, kernel_regularizer=regularizers.l2(0.001),
                          activation='relu', input_shape=(10000,)))

3.Dropout
有些中间输出,在给定的训练集上,可能发生只依赖某些神经元的情况,这就会造成对训练集的过拟合。而随机关掉一些神经元,可以让更多神经元参与到最终的输出当中。dropout可以随机的让一部分神经元失活,当我们采用了Dropout之后再训练结束之后,应当将网络的权重乘上概率p得到测试网络的权重。
keras中实现方式:(一般取值在0.2-0.5之间)

model.add(layers.Dropout(0.5))

Reference:
深度学习-避免过拟合

### 大模型过拟合解决方案与优化策略 大模型通常具有较高的表达能力和复杂度,但也更容易出现过拟合现象。以下是几种有效的大规模模型过拟合解决方案及其背后的原理: #### 1. 正则化技术 正则化是一种约束模型参数的方法,旨在降低模型的复杂度以防止过拟合。 - **L1 和 L2 正则化**:通过对权重施加惩罚项来控制模型复杂度。L1 正则化倾向于使某些权重变为零,从而实现特征选择;而 L2 则平滑权重分布[^2]。 ```python from keras import regularizers model.add(Dense(64, input_dim=64, kernel_regularizer=regularizers.l2(0.01))) ``` #### 2. Dropout 技术 Dropout 是一种简单却非常有效的正则化方法,在每次更新过程中随机丢弃一部分神经元,以此强制网络学习更加健壮的特征表示[^4]。 ```python from keras.layers import Dropout model.add(Dropout(0.5)) ``` #### 3. 数据增强(Data Augmentation) 当原始数据集较小时,人工扩展训练样本成为必要手段之一。对于图像分类任务而言,常见的做法包括旋转、缩放、裁剪等几何变换以及颜色抖动等操作[^5]。 #### 4. 提前停止(Early Stopping) 提前停止是指监控验证集上的性能指标,在发现不再提升时立即终止训练过程,避免继续迭代导致进一步过拟合的情况发生。 ```python from keras.callbacks import EarlyStopping early_stopping = EarlyStopping(monitor='val_loss', patience=2) model.fit(X_train, Y_train, validation_split=0.2, callbacks=[early_stopping]) ``` #### 5. 调整模型架构 简化网络结构或者减少层数也是抑制过拟合的有效途径之一。然而需要注意的是,这种做法可能会牺牲一定的预测准确性,因此应当谨慎权衡利弊关系[^3]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值