在拟合sinx时使用的是损失函数进行拟合的,而在分类任务中使用的则是交叉熵函数。我认为损失函数和交叉熵函数的差别在与他们的输出值与实际结果的比较的衡量标准不同。损失函数要保证两者差别最小,而交叉熵函数则要保证概率最大。损失函数是0.5*(label[i]-output[i])^2,是用来拉近正确值与输出值的,也就是让正确值和输出值的差越小越好,而并不是一定要输出正确的结果,这种损失函数比较适合拟合函数,用来逼近输出值。但不适合使用分类任务,交叉熵是计算几个事物的概率误差,适合于one-hot编码的分类任务,也就是说,交叉熵其目的在于让“大者概率更大,小者概率更小”,而不是简单的趋向于结果值,所以它的正确输出可以是一个比1大很多的值和几个跟1差不多大的值组成,然后再进行softmax概率化。而损失函数却不能容忍这一点,这就是损失函数在分类任务中的局限性。而交叉熵使用softmax函数,使用exp指数化参数,很容易的就可以保证“大者概率更大,小者概率更小”这一目的。
交叉熵和损失函数的理解
最新推荐文章于 2025-10-23 10:51:45 发布
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
GPT-SoVITS
AI应用
GPT-SoVITS 是一个开源的文本到语音(TTS)和语音转换模型,它结合了 GPT 的生成能力和 SoVITS 的语音转换技术。该项目以其强大的声音克隆能力而闻名,仅需少量语音样本(如5秒)即可实现高质量的即时语音合成,也可通过更长的音频(如1分钟)进行微调以获得更逼真的效果
3790

被折叠的 条评论
为什么被折叠?



