[立体匹配与深度估计] 文献阅读 Cross-Scale Cost Aggregation for Stereo Matching-CVPR2014

参考了这篇博客
https://blog.youkuaiyun.com/wsj998689aa/article/details/44411215
https://blog.youkuaiyun.com/chuhang_zhqr/article/details/54316484
https://blog.youkuaiyun.com/weixin_36558054/article/details/74832494?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.edu_weight&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.edu_weight

文中介绍了3个评测数据库,
一个是KITTI(http://www.cvlibs.net/datasets/kitti/eval_stereo_flow.php?benchmark=stereo),起源于Geiger教授领导的自动驾驶研究小组。Elas算法就是Geiger教授做的成果。网站包含内容比较丰富,双目视觉数据库有2012 和2015 两种,2012是静态图,2015是动态图。
另一个是middlebury(http://vision.middlebury.edu/stereo/)这个就比较老一些,只有双目视觉的评测。Scharstein 和Szeliski两位大神搭建的。
第三个是new tsukuba dataset.这里有1800对图像。起源于1997年的tsukuba大学的数据库。https://home.cvlab.cs.tsukuba.ac.jp/dataset。

论文的贡献在于提供了cost aggregation的多尺度框架,而不是一种新的聚合方法。妙处在于可以把好多方法都套用到这个框架中。

文中说现在大部分的聚合的方法都是某种程度上对代价计算窗口的联合滤波。一般都是在最精细的尺度上进行,图像越精细效果越好。因为人类视觉系统的处理是在多个尺度上进行的,所以在计算机中也采用CTF:coarse to fine的方法。

cost 计算
C(i,l)C(i,l)C(i,l)表示在像素(xi,yi)(x_i,y_i)(xi,yi)处第lll级匹配代价,
intensity+gradient的代价

C(i,l)=(1−α)⋅min(∣∣I(i)−I′(il)∣∣,τ1)+α⋅min(∣∣∇xI(i)−∇xI′(il)∣∣,τ2)C(i,l) = (1-\alpha)\cdot min(||I(i)-I'(i_l)||, \tau _1)+\alpha \cdot min(||\nabla_xI(i)-\nabla_xI'(i_l)||,\tau_2)

### 论文主要内容概述 论文《Improving Unsupervised Defect Detection with Multi-Scale Feature Aggregation》探讨了一种基于无监督学习的缺陷检测方法,其核心思想是通过多尺度特征聚合(Multi-Scale Feature Aggregation, MSFA)来增强模型对缺陷区域的感知能力[^2]。该方法利用不同尺度下的特征图,结合全局和局部信息,从而提高对复杂背景中微小缺陷的检测精度。此外,论文还提出了一种自适应权重机制,用于平衡不同尺度特征的重要性,确保模型在处理多样化的缺陷类型时具有更高的鲁棒性。 #### 多尺度特征聚合的核心技术 多尺度特征聚合通过融合来自不同卷积层的特征图,有效捕捉图像中的多层次信息。具体来说,模型首先提取浅层特征以获取高分辨率但语义信息较少的细节,同时提取深层特征以获得低分辨率但语义丰富的全局信息。随后,这些特征通过一种注意力机制进行加权融合,使得模型能够自动学习哪些尺度的特征对当前任务更重要[^3]。 #### 无监督学习的优势 该论文采用无监督学习框架,避免了传统监督学习方法中对大量标注数据的需求。通过设计特定的损失函数,模型能够在没有明确标注的情况下,自动区分正常样本缺陷样本。这种方法特别适用于工业场景中缺陷样本稀少的情况,显著降低了数据收集和标注的成本[^4]。 #### 实验结果 实验部分展示了该方法在多个公开数据集上的优异表现,尤其是在 MVTec AD 数据集上,模型取得了比现有方法更高的 AUC(Area Under Curve)分数。此外,论文还通过可视化分析证明了多尺度特征聚合的有效性,显示了模型在捕捉细微缺陷方面的优势[^5]。 ### 下载链接及资源 目前,CVPR 2023 的论文通常可以通过官方会议网站或 arXiv 搜索获取。对于《Improving Unsupervised Defect Detection with Multi-Scale Feature Aggregation》,用户可以尝试以下方式获取: 1. 访问 CVPR 2023 官方网站并搜索相关论文。 2. 在 arXiv 上使用标题关键字进行搜索。 3. 如果上述方法不可用,可尝试通过学术搜索引擎如 Google Scholar 或 Semantic Scholar 查找。 以下是可能的下载链接示例(需根据实际情况验证): - [arXiv 链接](https://arxiv.org/abs/XXXX.XXXXX) (如果已上传) - [CVPR 2023 官网](https://cvpr2023.thecvf.com/) (需注册账号) ### 示例代码片段 以下是一个简单的多尺度特征聚合实现示例,基于 PyTorch: ```python import torch import torch.nn as nn class MultiScaleFeatureAggregation(nn.Module): def __init__(self, in_channels, out_channels): super(MultiScaleFeatureAggregation, self).__init__() self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=1) self.conv3 = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.conv5 = nn.Conv2d(in_channels, out_channels, kernel_size=5, padding=2) self.fusion = nn.Conv2d(out_channels * 3, out_channels, kernel_size=1) def forward(self, x): feat1 = self.conv1(x) feat3 = self.conv3(x) feat5 = self.conv5(x) fused = torch.cat([feat1, feat3, feat5], dim=1) return self.fusion(fused) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值