KL散度被广泛应用于度量分布之间的差异,其形式为: D K L ( P ∣ ∣ Q ) = ∑ i = 1 N p i l o g p i q i = ∑ i = 1 N p i ∗ ( l o g p i − l o g q i ) D_{KL}(P||Q)=\sum_{i=1}^{N}p_ilog\frac{p_i}{q_i}=\sum_{i=1}^{N}p_i*(logp_i-logq_i) DKL(P∣∣Q)=i=1∑N
ptorch中的nn.KLDivLoss:KL散度损失
于 2024-03-23 20:01:58 首次发布
本文介绍了KL散度在度量分布差异的应用,着重讲解了PyTorch库中torch.nn.KLDivLoss函数的定义、使用方法以及与交叉熵损失的区别。特别提到在使用KLDivLoss时需对输入做softmax和可能的对数转换以确保数值稳定性。

最低0.47元/天 解锁文章
1353

被折叠的 条评论
为什么被折叠?



