1. Softmax:接收一个实数向量,返回一个概率分布。假设X是一个实数的向量(正数或者负数都可以),然后第i个softmax(x)的组成是

log_softmax: 在softmax的结果上再做一次log运算,数学上等价于log(softmax(x)),但比这两个操作单独做快很多
2.NLLLoss的输入是一个对数概率向量和一个目标标签,自身不会计算对数概率
经常用于网络的最后一层是log_softmax
nn.CrossEntroyLoss()与NLLLoss相同,不同的是交叉熵loss会计算softmax,用于多分类模型
本文介绍了Softmax函数及其变种log_softmax的工作原理,并详细解释了NLLLoss和CrossEntropyLoss两种常见损失函数的用法及区别。对于理解神经网络中最后一层的输出处理和损失计算非常有帮助。
6515





