【CVPR2022】论文阅读笔记Semi-Supervised Semantic Segmentation Using Unreliable Pseudo-Labels

本文介绍了一种创新的半监督语义分割方法,通过区分可靠和不可靠伪标签,将低置信度预测用于负样本生成,从而平衡类别训练。通过自适应阈值调整和类别级内存池,U2PL在PASCALVOC和Cityscapes上超越现有SOTA。

Semi-Supervised Semantic Segmentation Using Unreliable Pseudo-Labels

使用不可靠伪标签的半监督语义分割

论文地址:https://arxiv.org/abs/2203.03884

代码地址 :https://haochen-wang409.github.io/U2PL.

摘要

半监督语义分割的关键是给无标签图像的像素分配适当的伪标签。通常的做法是选择高置信度的预测作为伪标签,但这导致了一个问题,即大部分置信度低的预测可能会被弃用。即使有些像素的预测是模糊的,我们也认为每个像素对模型训练都很重要。一个不可靠的预测可能会与在Top类(即概率最高的类)混淆。然而,它应该确定该像素不属于其余的类。因此,对于那些最不可能的类别,这样的像素可以视为负样本。基于这一发现,我们提出了一个有效的方法来充分利用未标记的数据。具体来说,我们通过预测结果的熵图来分离可靠和不可靠的像素,把每个不可靠的像素推到一个由负样本组成的分类队列中,并利用所有候选像素来训练模型。考虑到训练进程,预测结果越来越精确,因此我们自适应调整区分可靠-不可靠的阈值。在各种基准和训练设置上的实验结果表明,我们的方法优于SOTA方法

动机

现有的监督学习的方法需要大量的有标注数据,但是标注数据需要在实际中需要大量成本。因此半监督学习语义分割应运而生,如何充分利用无标签数据至关重要。现有的方法通过置信度分数过滤预测结果。也就是说,高置信度的预测被用作伪标签,而低置信度的则被丢弃。这可能造成一些像素可能在训练过程中一直没有被学习到,从而导致类别不平衡训练。因此,我们认为要想充分利用无标签数据,每个像素都应该被合理的利用。

创新点

本文提出了了一种使用不可靠伪标签(Using Unreliable Pseud

CVPR 2023中,关于使用高置信度伪标签进行协同训练的研究是一个值得关注的方向。这类方法通常应用于半监督学习场景,旨在利用少量标记数据与大量未标记数据相结合,以提高模型的泛化能力和性能[^2]。 一个相关的研究方向是通过一致性正则化和伪标签生成来提升模型表现。例如,Mean Teachers方法通过维护一个教师模型,该模型的权重是学生模型权重的指数移动平均(EMA),从而提供更稳定的预测结果作为伪标签。这种策略已被证明能够显著提高半监督学习的效果,并被广泛应用于图像分割等任务中[^2]。 尽管具体的CVPR 2023论文列表可能无法直接获取,但可以推测,在这一年会议上很可能有进一步发展这一领域的论文。这些工作可能会探索如何更有效地选择或加权伪标签,以及如何结合不同的训练策略如协同训练来增强模型鲁棒性和准确性。 对于寻找特定的CVPR 2023论文,建议访问CVPR官方网站或者使用学术搜索引擎如Google Scholar、Semantic Scholar等,搜索关键词"CVPR 2023 Co-training with High-Confidence Pseudo Labels"或者相关作者名字,这将有助于找到最准确的相关研究成果。 此外,考虑到会议论文发表的时间性和新颖性,确保查阅最新的数据库更新是非常重要的,因为新的研究发现会不断涌现并影响当前的最佳实践。 ```python # 示例代码:创建一个简单的伪标签生成器 def generate_pseudo_labels(model, data_loader, confidence_threshold=0.9): model.eval() pseudo_labels = [] with torch.no_grad(): for inputs, _ in data_loader: outputs = model(inputs) probabilities = F.softmax(outputs, dim=1) max_probs, predicted_labels = torch.max(probabilities, dim=1) # 仅保留那些具有高置信度的预测 high_confidence_mask = max_probs > confidence_threshold pseudo_labels.extend(zip(predicted_labels[high_confidence_mask], inputs[high_confidence_mask])) return pseudo_labels ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值