OTB最初就是MATLAB版本评估,后来又推出了python版本,不过精度貌似没有matlab高
python版本配置可以参考我另一篇博客:OTB官方评估代码python版本
tracker_benchmark_v1.0介绍以及matlab配置可以参考以下几篇博客,都是一个博主写的:
【OTB使用介绍一】tracker_benchmark_v1.0小白使用配置OTB100
【OTB使用介绍二】对Visual Tracker Benchmark v1.0源码进行介绍
【OTB使用介绍三】如何将自己的算法加入到Visual Tracker Benchmark v1.0中,以KCF为例
【OTB使用介绍三(补充)】如何将自己的算法加入到Visual Tracker Benchmark v1.0中,以ECO为例
在配置中有几个注意的地方:
1、如果要评估OTB100,可以参考:目标跟踪tracker_benchmark_v1.0的配置OTB100数据集
主要是修改两个地方:(1)configSeqs.m中的序列-------博主已给出,赞!
直接使用即可,不过路径要修改为自己的路径,几个特殊序列(如:Human4、jogging-1、jogging-2)的文件名根据实际情况进行修改
(2)替换anno文件夹
采用博主给出的最新那个,替换官网原来的就行
我们下载最原始的tracker_benchmark_v1.0,里面默认的是OTB2013.
OTB2013是指作者2013年投CVPR时所使用的数据集,一共有50个视频序列,51个测试场景,其中有一个视频序列Jogging中具有两个测试场景。
OTB2013、OTB50、OTB100的区别可以自己了解下
2、如果要进行OPE评估,可以参考:目标跟踪tracker_benchmark_v1.0的配置 修改几个地方
如果是直接拿自己的OTB100结果文件进行OPE评估,也要把OTB100个结果复制到results\results_TRE_CVPR13中,因为代码这样写的,可以自己去修改了
3、如果不运行main_running.m,单独运行perfPlot.m进行评估,可能会报错:
” 未定义函数或变量 'calcRectInt' “
此时把“restEval”文件夹addpath到需要calcRectInt这个函数的那个文件(我添加到了util/calcSeqErrRobust.m中)中就好了。
问题
我在进行OPE评估的时候,采用MDNet算法,发现如果perfPlot.m文件中设置rankingType如下:
rankingType = 'AUC'; %AUC, threshold
就是只画图success,那么结果正确
但是如果设置为threshold(画出success和Precision),那么Precision正确,success不正确,不知道为什么