为何使用交叉熵作为损失函数?

本文探讨了交叉熵在机器学习中的应用,解释了其作为损失函数的原因,包括避免梯度消失及非凸函数的问题。同时,对比了交叉熵与平方损失函数的区别,深入分析了KL散度的概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 以下图片来自:
    https://www.zhihu.com/question/41252833 (Noriko Oshima 的回答)
    即用一个概率分布,去尽可能的估计真实数据分布,“使用错误分布q来表示来自真实分布p的平均编码长度”,这个长度大于等于真实分布编码的长度。因此,交叉熵越小越好。
    相对熵是错误编码长度和真实编码长度的差值,也即KL散度。
    来自知乎

在这里插入图片描述

还有一篇博客来自:
http://shuokay.com/2017/06/23/cross-entropy/


为何用交叉熵损失函数

https://blog.youkuaiyun.com/aliceyangxi1987/article/details/80532586:
为什么不用平方损失函数
如果使用平方损失函数,梯度更新的速度会和 sigmod 函数的梯度相关,sigmod 函数在定义域内的梯度都不大于0.25,导致训练速度会非常慢。
而且平方损失会导致损失函数是 theta 的非凸函数,不利于求解,因为非凸函数存在很多局部最优解。

https://zhuanlan.zhihu.com/p/53045651

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值