- 博客(2)
- 收藏
- 关注
原创 缓解过拟合的几个常用方法
过拟合(overfitting),机器学习模型或者是深度学习模型在训练样本中表现得过于优越,导致在验证数据集以及测试数据集中表现不佳。
2024-06-03 20:11:57
849
原创 《动手学深度学习》 第三章 线性神经网络
通常我们会选择非负数作为损失,且数值越小表示损失越小,完美预测时的损失为0。回归问题中最常用的损失函数是平方误差函数。softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。简而言之,就是softmax函数可以把输入映射到0-1的区间,同时归一化保证和为1。交叉熵损失函数主要用于分类问题,判断实际输出与预期输出的差别,也就是交叉熵的值越小,两个概率分布就越接近。回归是变量与变量之间建立的某种联系的表达的一类方法。简而言之,就是n维的输入乘以权重,再加上偏差。
2024-05-06 22:43:37
835
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人