基于Partial Cross Entropy的弱监督语义分割实战指南

一、问题背景:弱监督学习的挑战

在计算机视觉领域,语义分割任务面临最大的挑战之一是**标注成本**。以Cityscapes数据集为例,单张图像的像素级标注需要约90分钟人工操作。这催生了弱监督学习(Weakly Supervised Learning)的研究方向,其中partial cross entropy loss(部分交叉熵损失)成为重要的技术手段。

### 弱监督的常见形式
1. 图像级标签(Image-level labels)
2. 涂鸦标注(Scribbles)
3. 边界框标注(Bounding boxes)
4. **部分像素标注(Partial labels)** → 本文重点

传统交叉熵损失要求所有像素都有标注,这在现实场景中难以满足。我们的解决方案是设计能够处理**稀疏标注**的损失函数。

---

## 二、Partial Cross Entropy的核心思想

### 2.1 标准交叉熵损失回顾
```python
def standard_ce_loss(pred, target):
    """
    pred: (B, C, H, W) 模型预测的概率分布
    target: (B, H, W) 真实标签(0~C-1)
    """
    loss = F.cross_entropy(pred, target, reduction='mean')
    return loss
```

### 2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Loving_enjoy

感谢亲们的支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值