先插入一个链接可视化信息论,简单明了很容易看懂
什么是信息熵
信息熵是度量随机变量不确定度的指标,信息熵越大意味着随机变量不确定度越高,意味着系统的有序程度越低。他的定义
如果随机变量 P={
x1,x2,...,xn} ,他的概率 P{
P=xi},i∈{
1,2,..,n} ,则随机变量 P={
x1,x2,...,xn} 的熵定义为
H(P)=−∑i=1np(xi)log2p(xi)
什么是交叉熵
交叉熵(Cross Entropy),主要用于度量两个概率分布间的差异性信息。对一个离散随机变量的两个概率分布P和Q来说,他们的交叉熵定义为:
H(P,Q)=−∑i=1

最低0.47元/天 解锁文章
1064

被折叠的 条评论
为什么被折叠?



