11、神经网络训练基础:收敛、检查点、提前停止与超参数调优

神经网络训练基础:收敛、检查点、提前停止与超参数调优

1. 收敛

早期人们认为,向模型输入训练数据的次数越多,模型的准确率就越高。但对于大型复杂网络,在某个节点后,准确率会下降。如今,我们会根据模型在应用中的使用方式,寻找可接受的局部最优收敛点。

如果对神经网络进行过度训练,可能会出现以下情况:
- 神经网络对训练数据过拟合,训练数据的准确率不断提高,但测试数据的准确率下降。
- 在深度神经网络中,各层的学习方式不一致,收敛速度不同。当某些层接近收敛时,其他层可能已经收敛并开始发散。
- 持续训练可能使神经网络跳出一个局部最优解,开始收敛到一个准确率更低的局部最优解。

理想的收敛情况是,在训练初期损失快速下降,随着训练接近(近似)最优值,损失下降速度减慢,最终趋于平稳。

下面使用TF.Keras中的简单ConvNet模型和CIFAR - 10数据集来演示收敛和发散的概念:

from tensorflow.keras import Sequential
from tensorflow.keras.layers import Conv2D, MaxPooling2D
from tensorflow.keras.layers import Dropout, Flatten, Dense
from tensorflow.keras.datasets import cifar10
from tensorflow.keras.utils import to_categorical
import numpy as np

(x_train, y_train), (
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值