相对熵/KL散度(Kullback–Leibler divergence,KLD)

本文介绍了相对熵(又称KL散度)的概念及其在信息论中的应用。相对熵是一种衡量两个概率分布之间差异的非对称性度量,常用于量化使用一个分布编码另一个分布所需的额外比特数。

相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。
KL散度是两个概率分布P和Q差别的非对称性的度量。

      KL散度是用来度量使用基于Q的编码来编码来自P的样本平均所需的额外的比特个数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。

 

http://zh.wikipedia.org/zh-tw/%E7%9B%B8%E5%AF%B9%E7%86%B5

http://baike.baidu.com/view/951299.htm

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值