Improved Few-Shot Visual Classification 论文笔记

本文探讨了小样本学习方法,尤其是CNAPS和Simple CNAPS在视觉分类中的应用。通过使用马氏距离替代欧几里得距离,性能提升了6.1%,并减少了788485个参数。Simple CNAPS通过估计协方差矩阵改进分类,适用于小样本和高样本分类任务。研究表明,度量选择对性能至关重要,马氏距离能更好地建模类内样本分布。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

小样本学习方法主要可以分为两种形式:最近邻方法和embedding方法。在embedding方法中,通常是先将图像通过非线性映射到embedding空间中,然后在embedding空间中根据预设的距离度量来进行最终的最近邻分类,原型网络采用的就是这种方法。

人们发现,在经过灵活的非线性映射之后,得到的embedding基本可以适应任何距离度量,因此度量的选择似乎变得无关紧要。然而本文发现,度量的选择还是相当重要的。 在原型网络中,作者分析了文中所使用的距离函数,以证明使用样本均值作为原型是合理的,并且作者认为在所有的距离函数中,Bregman散度是最合适的,不过原型网络仅选用Bregman散度中的一个实例——平方欧几里得距离。但是,选择欧几里得度量会涉及两个错误的假设:

  1. 特征维度不相关;
  2. 具有一致的协方差。

此外,欧氏距离对于类内样本相对于原型的分布不敏感。本文发现,对这种分布进行建模是提升性能的关键。

本文的贡献如下:

  • 使用马氏距离作为度量,通过实验发现性能相比CNAPS提升了6.1%;
  • 作者发现即使在小样本分类的情况下,也能够估算出马氏距离;
  • 提出了一种新的Simple CNAPS结构,它从原始CNAPS中移除了788485个参数,并用固定的,不需要学习的确定性协方差和马氏距离来替代它们;
  • 本文还发现足够复杂的CNN特征提取器可以适应最终的任何度量标准。

方法实现

首先对小样本图像分类做一个说明。假设有一个大规模带标记数据集 D = { ( x i , y i ) } i = 1 N D=\lbrace(x_i,y_i)\rbrace^N_{i=1} D={ (xi,yi)}i=1N,其中 x i x_i xi y i y_i yi分别是图像和标签。那么从 D D D中就可以构建一个专门用于分类任务的大规模数据集 D τ ∈ D D^{\tau} \in D DτD,这里 τ ∈ Z + \tau \in \Bbb Z_{+} τZ+定义的是一个分类任务。然后定义支持集 S τ = { ( x i , y i ) } i = 1 N τ S^{\tau}=\lbrace(x_i,y_i)\rbrace^{N^{\tau}}_{i=1} Sτ={ (xi,yi)}i=1Nτ和查询集 Q τ = { ( x i ∗ , y i ∗ ) } i = 1 N ∗ τ Q^{\tau}=\lbrace(x_i^*,y_i^*)\rbrace^{N^{*\tau}}_{i=1} Qτ={ (xi,yi)}i=1Nτ D τ = S τ ⋃ Q τ D^{\tau}=S^{\tau} \bigcup Q^{\tau} Dτ=SτQτ x 1 , x i ∗ ∈ R D x_1,x_i^* \in \Bbb R^D x1,xiRD是向量化的图像, y i , y i ∗ ∈ { 1 , . . . , K } y_i,y_i^* \in \lbrace1,...,K\rbrace y

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值