Hamming Embedding 汉明嵌入简介

本文介绍了汉明嵌入(Hamming Embedding)在解决SIFT结合BOF模型时聚类中心选择的问题。通过使用较小的K值进行预聚类,然后计算64维二进制特征向量并利用汉明距离进行匹配,有效地处理了特征匹配和分数计算。文章详细阐述了如何从128维SIFT向量生成64维二进制向量的过程,包括随机矩阵生成、正交投影、中值计算等步骤,并指出这种方法在图像检索中的性能提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考文献  Hamming Embedding and Weak Geometric Consistency for Large Scale Image Search


  在SIFT结合BOF模型中,如果聚类时聚类中心数量选择过大或过小,都会造成一定的问题。

如图所示,红色的方框表示一个特征,红色的叉表示该特征的各种噪音版本,本质上应该是一类特征。如果K选择过大(左图),则会对特征分得过细,导致这些噪音特征分到不同的聚类中心中;如果k选择过小(右图),则降低了BOF的描述能力,使得很多本来不是同一类的特征也被分到了一个聚类空间中。那么有没有一种方法既不让噪音版本分到不同的聚类中心去,又保证了BOF的描述能力不下降呢?

  在K-MEANS时我们选择较小的k,形成比较粗糙的字典,在匹配时对每个聚类中心里的点再继续细分,具体的,给每个点赋予一个新的64维特征向量,该向量的每一个维度取值只能是0或1的binary,然后计算两两特征之间的汉明距离,如果汉明距离小于一个阈值则认为这两个向量属于同一类。汉明距离的计算公式如下:

x,y分别是在BOF里属于同一个聚类中心的点,然后对它们的新特征计算汉明距离,如果h小于一个阈值(经验上为22)则认为x和y两个特征是匹配的。它们的匹配分数可以计算为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值