自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 【论文阅读】[ICCV2023] Local and Global Logit Adjustments for Long-Tailed Learning

LGLA旨在解决现有方法在处理长尾数据集时遇到的问题,即通过从整个数据集中学习多样化的泛化模型可能不足以覆盖尾部类别,而专注于不同子集的专家模型可能会在预测未见类别时引入模糊性。

2025-04-11 16:38:00 417 1

原创 【论文笔记】[ICCV2023]MDCS: More Diverse Experts with Consistency Self-distillation for Long-tailedRecogn

核心组件:通过一个可调节的分布权重来适应每个专家的多样性需求,使得每个专家倾向于识别不同的类别(如Many-shot、Medium-shot和Few-shot类别),从而有效增加多样性并提高识别准确性。:为了解决模型方差问题,并避免模型对实例的过拟合,当学习强增强样本时,提供更丰富的监督形式。具体来说,利用弱增强数据的预测来提炼更丰富的实例知识,以规范化强增强实例的学习过程。:提出了一种CIS策略,用于选择正确分类的实例进行一致性自我蒸馏,防止引入偏差或噪声知识。

2025-03-31 20:38:32 1803 1

原创 【论文阅读】[CVPR2024] DeiT-LT 在长尾数据集上进行 Vision Transformer 训练的蒸馏反击

DeiT-LT通过结合Transformer在头部类别上的可扩展性和CNN在尾部类别上的归纳偏置,即使在不使用大型数据集预训练的情况下也能实现最先进的性能。在处理长尾分布的数据集时,特别是在尾部类别的建模上,提出的蒸馏损失能够有效补充数据高效Transformer方法的不足,使得DeiT-LT能够在所有类别中表现良好。相较于基于CNN的方法,基于Transformer的DeiT-LT在多个数据集上展现了优越的性能,证明了其在处理长尾数据方面的有效性。

2025-03-24 16:12:18 1842 1

原创 【论文笔记】[ICCV2021]Distilling Virtual Examples for Long-tailed Recognition

为了解决长尾视觉识别问题,提出了一种名为“Distill the Virtual Examples (DiVE)”的方法。具体来说,通过将教师模型的预测视为虚拟样本,证明了从这些虚拟样本中蒸馏在特定约束下等同于标签分布学习。研究表明,当虚拟样本分布比原始输入分布更加平坦时,代表性不足的尾部类别会得到显著改善,这在长尾识别中至关重要。这种方法提供了一个新颖的角度来处理长尾数据集中普遍存在的类别不平衡问题。通过利用教师模型生成的预测作为虚拟样本进行知识蒸馏,DiVE不仅能够在训练过程中动态调整不同类别的重要性

2025-03-17 11:15:37 1457 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除