语义分割—交叉熵损失函数

在语义分割中,关于目标标签的处理方式存在差异,有的代码需要使用squeeze,而有的则不需要。当标签是单通道灰度图时,通过DataLoader后的形状为(batch, w, h)。在某些实现中,transform或ToTensor步骤会增加一个维度。为确保正确性,应注意将target转换为long类型,并保持其三维形状(batch, w, h)。" 123162454,12409645,Java OA办公管理系统(SSM+Maven+layui)开发实战,"['Java开发', 'SSM框架', 'Maven构建', 'LayuiUI', 'OA系统']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

from dataloaders import utils
criterion = utils.cross_entropy2d
 
import torch.nn as nn
def cross_entropy2d(logit, target, ignore_index=255, weight=None, size_average=True, batch_average=True):
    n, c, h, w = logit.size()
    # logit = logit.permute(0, 2, 3, 1)
    target = target.squeeze(1)
    if weight is None:
        criterion = nn.CrossEntropyLoss(weight=weight, ignore_index=ignore_index, size_average=False)
    else:
        criterion = nn.CrossEntropyLoss(weight=torch.from_numpy(np.array(weight)).float().cuda(), ignore_index=ignore_index, size_average=False)
    loss = criterion(logit, target.long())
 
    if size_average:
        loss /= (h * w)
 
    if batch_average:
        loss /= n
 
    return loss

最近发现一个问题, 就是语义分割target这一步有的代码会将target.squeeze,  有的不需要呢   我测试了一下  如果标签单通道的灰度图的话  Image.open()读取是二维, 然后经过DataLoader, 就是三维(batch, w, h),  不懂为啥要squeeze????

原来在有的代码有的在transform中有的ToTe

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值