GAN的理论基础之KL散度与JS散度

本文介绍了信息熵、交叉熵的基础,并详细探讨了在生成对抗网络(GAN)中重要的KL散度和JS散度。KL散度衡量了概率分布q对p的拟合程度,而JS散度解决了KL散度不对称的问题,用于比较不同分布的差异。在GANs中,这些概念用于评估生成器对真实数据分布的匹配程度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在介绍KL散度和JS散度之前,我们需要了解什么是信息熵,什么是交叉熵。

香农信息量、信息熵

香农信息量用于刻画消除随机变量X在x处的不确定性所需的信息量的大小

                                                                          

当对数的底数为2时,香农信息量的单位为比特

香农信息量描述的是随机变量在某一点处的信息量,而衡量随机变量在整个样本空间的信息量,就需要用随机变量X的信息熵,可以将信息熵理解为是香农信息量的数学期望,即P(x)加权求和,因此可以将信息熵理解为消除随机变量不确定性所需的总体信息量的大小,熵越大,随机变量的不确定性就越大,数学定义如下:

                                                  

交叉熵

假设用q(x)来拟合p(x)的概率分布,交叉熵用来描述p和q的相似性,表示在给定的真实分布下,使用非真实分布用来消除系统不确定性所需付出的努力的大

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值