原文出处:https://dibyaghosh.com/blog/probability/kldivergence.html
参考源:https://www.countbayesie.com/blog/2017/5/9/kullback-leibler-divergence-explained
-----监督学习和强化学习这种方法的目标都是为了最小化KL差异
这篇文章将从增强学习和机器学习的整体角度讨论Kullback-Leibler Divergence:KL散度用来衡量两个概率分布之间的差异。
1.什么是KL Divergence?
KL散度是一种概率分布与另一种概率分布的差异的度量。 在贝叶斯理论中,存在一些真实分布P(X),如果我们想估计一个近似分布Q(X), 在这种情况下,使用KL散度测量从近似分布Q到真实分布P之间的差异。假设P,Q两种分布在同一空间中,那么从Q到P的KL散度可以表示为:,是一个期望值 。

本文深入探讨了机器学习中的KL散度,解释了它作为衡量两个概率分布差异的指标,并讨论了其在监督学习和强化学习中的作用。文章详细介绍了KL散度的定义、性质,包括其非对称性和有限值范围。此外,还提到了前向KL和反向KL在优化问题中的应用,特别是在分布拟合时选择不同目标函数的影响。
最低0.47元/天 解锁文章
1548

被折叠的 条评论
为什么被折叠?



