注意:softmax使用的即为交叉熵损失函数,binary_cossentropy为二分类交叉熵损失,categorical_crossentropy为多分类交叉熵损失,当使用多分类交叉熵损失函数时,标签应该为多分类模式,即使用one-hot编码的向量。
2020-08-23logloss对数损失函数
最新推荐文章于 2025-05-09 20:11:06 发布
本文详细解释了交叉熵损失函数的使用场景,包括二分类和多分类情况,并强调了在多分类任务中,标签应采用one-hot编码。通过阅读本文,读者将了解如何正确选择和应用交叉熵损失函数。
2226

被折叠的 条评论
为什么被折叠?



