O. Chum, J. Philbin, A. Zisserman, Near Duplicate Image Detection: min-Hash and tf-idf Weighting, British Machine Vision Conference, 2008.
这篇论文主要是提供了一种修改后的minhash方法去做图像的邻近重复检测。
我对论文中提出的weighted histogram intersection方法做了初步的实现。
并且在一些数据集上作出了结果。
大体思路如下:
- 对所有图像提取sift特征,并进行聚类。
- 得到所有图像的visual words表示。
- 计算每一个图像的idf weight(反文档权重)。
- 生成N个在聚类中心上的hash函数。
- 根据哈希函数得到每一张图片的minhash。
- 通过比较minhash来计算图片之间的相似度。
前两步是几乎所有检索方法必经的过程,因此从略。
反文档权重的计算是作为生成hash函数时的某个参数,这一点下面详述:
minhash是一种对集合相似度的高效的近似计算,标准的minhash是对所有words生成一个[0,1]之间的随机哈希函数值,对于每一张图片,该图片所有words中对应的最小哈希函数值就是该图片的minhash。通过计算所有图片的minhash,我们可以对图片进行两两比较,两张图片的相似度为两张图片在N个哈希函数上minhash相等的次数/N,即sim = k / N. k := 两张图片有k个对应哈希函数的minhash相等。
这篇文章中的minhash经过了修正。
下面主要介绍该论文中minhash的生成策略:
具体主要表现为加上了对words出现频数的考虑:
记一个word Wi在所有图片中出现的最高次数为yi,则我们生成哈希函数的时候将Wi视作为yi个不同的words,每个word的word weighting dw为1 - 该word的反文档频率(idf),于是该word的哈希函数值为-log(x) / dw,x为(0,1)上的随机值。
通过这种方法可以生成所有哈希函数。
我在columbia数据集上做了简单的测试,采用192个哈希函数,分成64组,每一组3个。
最后的结果是true positive 很高,true negativve也很高。
后来又在oxbuild上做了测试。结果AP只有略小于20%.
一开始认为是 哈希函数数量太少,后来知道minhash相似度计算之后只是得到了一个估计范围,需要对相似度大于一定值的图片进行进一步检索。等有时间再改进。
本文介绍了O. Chum等人2008年在英国机器视觉会议上发表的研究,该研究提出了一种改进的minHash方法用于近似图像重复检测。通过对SIFT特征进行聚类和生成视觉词,结合idf权重计算,利用加权直方图交集方法生成哈希函数,从而计算图像间的相似度。实验证明,该方法在true positive和true negative上表现出色,但在某些数据集上的平均精度较低,可能需要进一步的检索优化。
1066

被折叠的 条评论
为什么被折叠?



