【论文学习笔记-11】StereoNet(Google ECCV)

这篇论文介绍了StereoNet,一种利用神经网络实现高效、精确亚像素级立体匹配的方法。它展示了低分辨率costvolume也能达到高精度,并减少了传统方法的冗余参数,降低了计算成本和存储需求。实验在KITTI 12和15数据集上验证了其优越性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【论文学习笔记-11】StereoNet(Google ECCV)

又一篇快速立体匹配文章。

Contribution

①证明了基于神经网络的亚像素级别匹配的精度比传统方法高一个数量级

②通过一个低分辨率的costvolume就可以达到高精度的亚像素级别匹配精度

③说明了之前的方法使用的costvolume的参数冗余了,通过本文的方法可以显著降低运算时间和存储空间,代价的很小的精度损失。

网络

在这里插入图片描述

模型采用two-stage approach

首先提取特征,使用的是siamise网络结构,提取低分辨率特征。其中用了K个stride=2的55卷积,K=3/4,channel控制在32。之后使用过了6个残差块的33卷积。

这样提取的特征有两个好处。

  1. 感受野大,适用于纹理缺失区域
  2. 它是特征向量紧凑

之后提取CostVolume,还是采用直接拼接特征的方式获取4D Costvolume,之后经过4个3D卷积层获取维度为在这里插入图片描述
的特征向量。采用Softargmin做视差预测。

最后是Hierarchical Refinement网络:获取粗视差图后,首先通过双线性上采样到原图大小。

之后采用了上采样-卷积的方式。把视差图和原图(RGB三通道)concat在一起然后经过卷积成为32维的特征图,再经过6个残差块。使用了1-2-4-8-1-1的dialation,,最后经过一个3*3的卷积。这个结果和之前的结果进行相加,再经过ReLu控制视差为正。

Loss Function:

在这里插入图片描述

Experiment

Kitti12

在这里插入图片描述

Kitti15

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值