Near Duplicate Image Detection

本文介绍了O. Chum等人2008年在英国机器视觉会议上发表的研究,该研究提出了一种改进的minHash方法用于近似图像重复检测。通过对SIFT特征进行聚类和生成视觉词,结合idf权重计算,利用加权直方图交集方法生成哈希函数,从而计算图像间的相似度。实验证明,该方法在true positive和true negative上表现出色,但在某些数据集上的平均精度较低,可能需要进一步的检索优化。

O. Chum, J. Philbin, A. Zisserman, Near Duplicate Image Detection: min-Hash and tf-idf Weighting, British Machine Vision Conference, 2008.

这篇论文主要是提供了一种修改后的minhash方法去做图像的邻近重复检测。

我对论文中提出的weighted histogram intersection方法做了初步的实现。

并且在一些数据集上作出了结果。

大体思路如下:

  1. 对所有图像提取sift特征,并进行聚类。
  2. 得到所有图像的visual words表示。
  3. 计算每一个图像的idf weight(反文档权重)。
  4. 生成N个在聚类中心上的hash函数。
  5. 根据哈希函数得到每一张图片的minhash。
  6. 通过比较minhash来计算图片之间的相似度。

前两步是几乎所有检索方法必经的过程,因此从略。

反文档权重的计算是作为生成hash函数时的某个参数,这一点下面详述:

minhash是一种对集合相似度的高效的近似计算,标准的minhash是对所有words生成一个[0,1]之间的随机哈希函数值,对于每一张图片,该图片所有words中对应的最小哈希函数值就是该图片的minhash。通过计算所有图片的minhash,我们可以对图片进行两两比较,两张图片的相似度为两张图片在N个哈希函数上minhash相等的次数/N,即sim = k / N. k := 两张图片有k个对应哈希函数的minhash相等。

这篇文章中的minhash经过了修正。

下面主要介绍该论文中minhash的生成策略:

具体主要表现为加上了对words出现频数的考虑:

记一个word Wi在所有图片中出现的最高次数为yi,则我们生成哈希函数的时候将Wi视作为yi个不同的words,每个word的word weighting dw为1 - 该word的反文档频率(idf),于是该word的哈希函数值为-log(x) / dw,x为(0,1)上的随机值。

通过这种方法可以生成所有哈希函数。

我在columbia数据集上做了简单的测试,采用192个哈希函数,分成64组,每一组3个。
最后的结果是true positive 很高,true negativve也很高。

后来又在oxbuild上做了测试。结果AP只有略小于20%.

一开始认为是 哈希函数数量太少,后来知道minhash相似度计算之后只是得到了一个估计范围,需要对相似度大于一定值的图片进行进一步检索。等有时间再改进。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值