参考了这篇博客
https://blog.youkuaiyun.com/wsj998689aa/article/details/44411215
https://blog.youkuaiyun.com/chuhang_zhqr/article/details/54316484
https://blog.youkuaiyun.com/weixin_36558054/article/details/74832494?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.edu_weight&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.edu_weight
文中介绍了3个评测数据库,
一个是KITTI(http://www.cvlibs.net/datasets/kitti/eval_stereo_flow.php?benchmark=stereo),起源于Geiger教授领导的自动驾驶研究小组。Elas算法就是Geiger教授做的成果。网站包含内容比较丰富,双目视觉数据库有2012 和2015 两种,2012是静态图,2015是动态图。
另一个是middlebury(http://vision.middlebury.edu/stereo/)这个就比较老一些,只有双目视觉的评测。Scharstein 和Szeliski两位大神搭建的。
第三个是new tsukuba dataset.这里有1800对图像。起源于1997年的tsukuba大学的数据库。https://home.cvlab.cs.tsukuba.ac.jp/dataset。
论文的贡献在于提供了cost aggregation的多尺度框架,而不是一种新的聚合方法。妙处在于可以把好多方法都套用到这个框架中。
文中说现在大部分的聚合的方法都是某种程度上对代价计算窗口的联合滤波。一般都是在最精细的尺度上进行,图像越精细效果越好。因为人类视觉系统的处理是在多个尺度上进行的,所以在计算机中也采用CTF:coarse to fine的方法。
cost 计算
C(i,l)C(i,l)C(i,l)表示在像素(xi,yi)(x_i,y_i)(xi,yi)处第lll级匹配代价,
intensity+gradient的代价
C(i,l)=(1−α)⋅min(∣∣I(i)−I′(il)∣∣,τ1)+α⋅min(∣∣∇xI(i)−∇xI′(il)∣∣,τ2)C(i,l) = (1-\alpha)\cdot min(||I(i)-I'(i_l)||, \tau _1)+\alpha \cdot min(||\nabla_xI(i)-\nabla_xI'(i_l)||,\tau_2)