一、信息量、熵、相对熵(KL散度)、交叉熵
二、Softmax 与 交叉熵
三、pytorch中的交叉熵损失 nn.CrossEntropyLoss()
四、pytorch中的LogSoftmax()与nn.NLLLoss()
五、扩展nn.NLLoss()的计算
一、信息量、熵、相对熵(KL散度)、交叉熵
讲解逻辑:
一、信息量、熵、相对熵(KL散度)、交叉熵
二、Softmax 与 交叉熵
三、pytorch中的交叉熵损失 nn.CrossEntropyLoss()
四、pytorch中的LogSoftmax()与nn.NLLLoss()
五、扩展nn.NLLoss()的计算
讲解逻辑: