目录
- nn.L1loss
- nn.CrossEntropyLoss
- nn.MSELoss
- nn.BCELoss
nn.L1loss:
两者绝对值作差,然后求和平均loss(x,y)=1/n∑ \sum∑ |x_i-y_i|
crite = torch.nn.L1Loss()
loss = crite(output, target)
nn.CrossEntropyLoss:
这是交叉熵损失函数,常用于分类函数。主要是判断实际输出与期望输出的接近程度。
熵: 是用来衡量混乱程度的表示,代表一个样本中信息量的总和。信息量总和越大,样本的不确定性就越大。