基于深度神经网络的零样本学习在目标识别中的应用
1 零样本学习设置
1.1 替代设置
零样本学习(ZSL)存在多种替代设置。当训练阶段同时有可见类和不可见类的类原型时,这被称为类转导设置;而标准设置是类归纳设置,即不可见类原型在模型训练完成后才提供。
- 类转导设置 :在类转导设置中,生成模型可以利用不可见类的原型,基于语义描述合成不可见类对象的图像。同时,在训练时使用这些原型能避免模型将可见类样本误分类为不可见类样本。不过,与类归纳设置相比,在类转导设置中添加新类不够便捷,因为类归纳设置只需提供新类的语义表示即可引入新类,无需重新训练。
- 实例转导设置 :更宽松的设置是在训练阶段提供不可见类的无标签实例,这被称为实例转导设置,与之相对的是实例归纳设置。一些方法会利用这些无标签图像,例如提取视觉流形几何的额外信息。虽然转导设置的模型通常能达到更高的准确率,但它不适用于许多实际应用,因为大多数转导方法假设训练阶段能获取实际的(无标签)测试实例,而且在训练阶段获取许多不可见类的无标签样本也不现实。
此外,可用信息本身也可能与默认设置不同。一些方法除了使用语义原型,还会利用图或层次结构定义的类间关系,或者利用对象环境信息,如检测周围对象或计算共现统计。还有些方法使用的是每张图像的语义表示,而非每个类的语义表示。
1.2 广义零样本学习(GZSL)
在测试阶段,可能需要识别可见类和不可见类,这种设置称为广义零样本学习(GZSL)。将ZSL扩展到GZSL的方法大致可分为两类:
- 显式识别方法 :明
超级会员免费看
订阅专栏 解锁全文
8万+

被折叠的 条评论
为什么被折叠?



