mseloss 与 smooth_l1_loss比较

本文探讨了MSELoss与SmoothL1Loss之间的差异,指出在误差0-1范围内,MSELoss的平方等于SmoothL1Loss,且SmoothL1Loss产生的损失更小。SmoothL1Loss在(-1,1)区间内表现为平方损失,其余情况为L1损失。通过代码示例展示了两种损失函数的使用和输出结果。" 124557721,4872111,jupyter notebook单元格详解,"['jupyter', 'python', '文档编写', '代码执行']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在0-1直接,mseloss的平方是smooth_l1_loss,smooth_l1_loss更小

 

import torch


import torch.nn.functional as F

conf_mask = torch.FloatTensor([3])
conf_data = torch.FloatTensor([1])

loss_fn = torch.nn.MSELoss( reduce=False, size_average=False)

x= loss_fn(conf_mask, conf_data).item()
print('-----',x)


loc_loss = F.smooth_l1_loss(conf_mask, conf_data)
print(loc_loss)

结果:

----- 4.0
tensor(1.5000)

 

 

测试代码:

import torch
import torch.nn.functional as F

conf_mask = torch.FloatTensor([0.0, 10.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([10.1, 0.9, 0.0, 10.2, 10.2])

loss_fn = torch.nn.MSELoss()# reduce=False, size_average=False)

x= loss_fn(conf
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法网奇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值