这篇作者是:Prof. Kaihua Zhang, Qingshan Liu, Yi Wu, and Ming-Hsuan Yang,全是大牛。前几天看到他们把新版本的CNT放出来了,于是抓紧时间阅读了一下,整体思想与上一篇文章差别不大,下面详细介绍一下这篇文章。
基本思想
作者想构造一个在线的两层卷积神经网络用于visual tracking。首先在第一帧图像中,作者从目标区域提取很多归一化的图像patch,然后使用k-means 算法得到代表性的patch作为滤波器。当然,这些滤波器patch还包含着一些目标周围区域的上下文信息,这些滤波器用来定义随后帧图像的特征图(feature maps)。这些map用来衡量每一个滤波器和目标上游有用的局部强度模式之间的相似度。因此能够编码目标的局部结构信息。此外,所有的maps可以组合起来生成一个基于中层特征的全局的表达,而且与基于part方法的表达的不同在于保留了目标的几何布局。最后自适应阈值的的soft shrinkage 方法用来实现对全局表达的去噪,形成一个稀疏的表达。这个表达的更新采用的是简单的有效的在线策略,能够有效的适应目标外观的变化。
整个model的框架如下:
首先将图像样本分割成32*32大小的patch,利用kmeans 算法从这些切割的区域中聚类出一定树龄的归一化的图像patch,同时还要从目标周围区域提取出归一化的local patches。我们然后将他们作为滤波器对随后帧提取的归一化的样本进行卷积操作,从而生成一组特征图。最后这组特征图通过soft shrinka