Pytorch构建神经网络记录
1.Typical Loss
-mean squere error(MSE) 均方误差


pytorch中求mean squere error的梯度有两种方式:

backward( )函数(这个更方便)
torch.autograd.grad()函数用法示例
-cross entropy loss

-Entropy 熵

-cross entropy 交叉熵
cross entropy的值记为H(p,q):


对于one-hot encoding,entropy=0,cross entropy = entropy+KL Divergence = 0+KL Divergence = KL Divergence.
对于分类问题为什么不使用MSE而使用cross entropy

.cross_entropy()函数=softmax操作+log操作+nll_loss操作
2.链式法则

最低0.47元/天 解锁文章
5万+

被折叠的 条评论
为什么被折叠?



