深度学习中的优化标准:交叉熵与均方误差

文章整理了多篇关于深度学习经典损失函数的资料,包括《TensorFlow实战Google深度学习框架》中对交叉熵和均方误差的讲解,还有从不同角度解释交叉熵的文章,如用简单例子、结合信息论概念等,也提及百度百科从语言模型角度的讲解,作者后续将做笔记。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、《TensorFlow实战Google深度学习框架》——4.2.1 经典损失函数(交叉熵、均方误差)

这篇文章清晰地讲清楚了深度学习中的两大经典损失函数。

2、完美解释交叉熵

这篇文章通过几个简单的例子来解释和总结什么是交叉熵( Cross Entropy) 以及机器学习分类问题中为什么使用交叉熵。

3、一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉

此文结合了信息论的概念对交叉熵进行了透彻的讲解,讲明其本质。

4、交叉熵 - 百度百科

百度百科的这篇主要是从语言模型的角度来讲解交叉熵,讲得比较正式(就是不够通俗),初学者不太容易看懂。

 

PS:最近要考试了,只能先把参考资料放这,等之后有时间了,再根据自己的理解做下笔记。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值