机器学习中的KL Divergence

本文深入探讨了机器学习中的KL散度,解释了它作为衡量两个概率分布差异的指标,并讨论了其在监督学习和强化学习中的作用。文章详细介绍了KL散度的定义、性质,包括其非对称性和有限值范围。此外,还提到了前向KL和反向KL在优化问题中的应用,特别是在分布拟合时选择不同目标函数的影响。

原文出处:https://dibyaghosh.com/blog/probability/kldivergence.html

参考源:https://www.countbayesie.com/blog/2017/5/9/kullback-leibler-divergence-explained

-----监督学习和强化学习这种方法的目标都是为了最小化KL差异

这篇文章将从增强学习和机器学习的整体角度讨论Kullback-Leibler Divergence:KL散度用来衡量两个概率分布之间的差异。

1.什么是KL  Divergence?

KL散度是一种概率分布与另一种概率分布的差异的度量。 在贝叶斯理论中,存在一些真实分布P(X),如果我们想估计一个近似分布Q(X), 在这种情况下,使用KL散度测量从近似分布Q到真实分布P之间的差异。假设P,Q两种分布在同一空间中,那么从Q到P的KL散度可以表示为:D_K_L(P||Q)=E[logP(X)-logQ(X)]=\sum_{i=1}^{n}P(X)log\frac{P(X)}{Q(X)},是一个期望值 。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值