TensorFlow 实战(一)—— 交叉熵(cross entropy)的定义

分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.youkuaiyun.com/jiangjunshow

也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴!

                       

对多分类问题(multi-class),通常使用 cross-entropy 作为 loss function。cross entropy 最早是信息论(information theory)中的概念,由信息熵(information entropy,与压缩比率有关)变化而来,然后被用到很多地方,包括通信,纠错码,博弈论和机器学习等。交叉熵与信息熵的关系请见:<a href=“http://blog.youkuaiyun.com/lanchunhui/article/details/50970625”, target="_blank">机器学习基础(六)—— 交叉熵代价函数(cross-entropy error)。

在运作对 loss function 的定义时, y y y yyy yyy 是预测的概率分布,KaTeX parse error: Expected 'EOF', got '&' at position 4: y′y&̲#x27;y′ 是真实的概率分布(在多分类问题的 one-hot 编码),用来判断模型对真实概率分布估计的准确程度。

KaTeX parse error: Expected 'EOF', got '&' at position 33: …iyi′log⁡yiH(y,y&̲#x27;)=H_{y&#x2…

i i i iii iii 表示的是样本编号。此外交叉熵还可以用来度量两个同维度的向量之间的举例,二分类问题又可进一步展开为:

H ( y , a ) = H y ( a ) = − ( y l o g ⁡ a + ( 1 − y ) l o g ⁡ ( 1 − a ) ) H ( y , a ) = H y ( a ) = − ( y log ⁡ a + ( 1 − y ) log ⁡ ( 1 − a ) ) H ( y , a ) = H y ​ ( a ) = − ( y l o g a + ( 1 − y ) l o g ( 1 − a ) ) H(y,a)=Hy(a)=−(ylog⁡a+(1−y)log⁡(1−a))H(y,a)=H_y(a)=-\left(y\log a+(1-y)\log (1-a)\right)H(y,a)=Hy​(a)=−(yloga+(1−y)log(1−a)) H(y,a)=Hy(a)=(yloga+(1y)log(1a))H(y,a)=Hy(a)=(yloga+

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值