pytorch KL散度计算出现负值的情况

本文介绍了在使用PyTorch计算KL散度时遇到负值的问题,通过示例代码展示了如何正确计算。当分布概率值相加不为1或未对输入应用log操作时,可能导致负值。修正后,KL散度能正确输出0表示两个相同分布。
部署运行你感兴趣的模型镜像

最近使用了pytorch的KL散度计算模块,发现loss是负值,例如下面的代码。

import torch

KL_criterion = torch.nn.KLDivLoss(size_average=False)
a = torch.tensor([0.1, 0.2, 0.3, 0.4])
b = torch.tensor([0.1, 0.2, 0.3, 0.4])

loss = KL_criterion(a, b)
print(loss)

其结果为:

-1.5799

后来通过网上的解释(https://discuss.pytorch.org/t/kl-divergence-produces-negative-values/16791/5)得知,KL散度的input部分需要经过log的计算,加上之后变为:

import torch

KL_criterion = torch.nn.KLDivLoss(size_average=False)
a = torch.tensor([0.1, 0.2, 0.3, 0.4])
b = torch.tensor([0.1, 0.2, 0.3, 0.4])

loss = KL_criterion(a.log(), b)
print(loss)

其输出变为:

0

因为这是两个相同的分布,所以KL的结果是0,这是正确的。

如果换成一般的例子,如下所示:

import torch

KL_criterion = torch.nn.KLDivLoss(size_average=False)
a = torch.tensor([0.2, 0.1, 0.3, 0.4])
b = torch.tensor([0.1, 0.2, 0.3, 0.4])

loss = KL_criterion(a.log(), b)
print(loss)

其输出变为:

0.0693

需要注意的是: 分布的结果相加需要为1。

KL 散度的input部分需要加上log运算也与其原理有关,详细内容可以参考pytorch的官方文档介绍。

您可能感兴趣的与本文相关的镜像

PyTorch 2.8

PyTorch 2.8

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值