用于视觉实例检索的可扩展深度特征包方法
1. 问题提出与解决思路
在视觉实例检索中,存在两个主要问题影响检索的效率和准确性。一是背景会干扰相似度计算,二是直接进行局部深度特征的交叉匹配计算复杂度高。针对这两个问题,分别提出了特征选择方案和Bag-of-Deep-Visual-Words (BoDVW) 模型来解决。
2. 特征选择
特征选择旨在过滤掉背景区域的不必要特征,减少背景和无关图像模式的影响。具体操作如下:
- 特征重要性衡量 :使用L2范数来衡量特征的重要性。通常,包含独特视觉模式的局部区域在卷积特征图的相应位置会获得高激活值,而低激活值的特征往往对应于均匀背景。
- 特征筛选 :对于图像的特征集F,选择的特征为T = {fi|fi ∈F 且 ∥fi∥2 ≥ε},其中ε是{∥fi∥2}(fi ∈F)的中位数。这样,仅保留约一半的局部深度特征。该过程类似于SIFT中拒绝低对比度关键点的步骤,但这里使用能量(L2范数)作为特征选择的度量。
以下是特征选择的效果示例:
| 图像类型 | 特征选择前 | 特征选择后 |
| ---- | ---- | ---- |
| 牛津数据集图像 | 包含大量背景特征 | 过滤掉如草地、墙壁、地面和天空等不太重要的区域,保留具有判别性语义特征的部分 |
特征选择不仅能保留更具判别性的特征,还能降低计算成本,后续实验将证明其能显著提升实例检索的性能。
3. BoDVW模型
为了高效计算图像之间局部深度特征的交叉匹配,对BoW模型和倒
超级会员免费看
订阅专栏 解锁全文
1298

被折叠的 条评论
为什么被折叠?



