KL-divergence、JS-divergence和Wasserstein距离

博客介绍了KL散度,它又称相对熵、信息散度、信息增益,是两个概率分布P和Q差别的非对称性度量,用于衡量用基于Q的编码来编码来自P的样本平均所需额外位元数。典型情况中,P为真实分布,Q为理论或近似分布,其值非负。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.KL-divergence

KL散度又称为相对熵,信息散度,信息增益。KL散度是是两个概率分布P和Q 差别的非对称性的度量。 KL散度是用来 度量使用基于Q的编码来编码来自P的样本平均所需的额外的位元数。
典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。
KL散度定义如下:
DKL(P∣∣Q)=∑x∈XP(x)logP(x)Q(x)D_{KL}(P||Q)=\sum_{x \in X}{P(x)log\frac{P(x)}{Q(x)}}DKL(PQ)=xXP(x)logQ(x)P(x)
因为对数函数是凸函数,所以KL散度的值为非负数。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值