大规模稀疏视图场景重建方法:ParseMVS解析
1. 引言
在大规模场景重建领域,如何利用稀疏视图实现高精度、高完整性的场景重建是一个重要挑战。宏观场景中蕴含着丰富的语义信息,基于语义的重建方法相较于传统的基于深度融合、点或体素的多视图立体视觉(MVS)方法,更符合人类对场景的认知。然而,现有的基于对象类或模型库的方法在处理大规模场景重建时存在局限性,难以推广。因此,需要一种新的方法来解决这些问题。
2. ParseMVS方法概述
ParseMVS是一种结构感知的场景解析方法,用于稀疏视图重建。它通过学习原始感知表面表示,将几何、纹理和可见性细节进行集成编码,以提高稀疏MVS的性能。
2.1 场景表示
- 原始分解 :将场景或对象初始分解为多个几何基元,如平面、球体、圆柱体和圆锥体。每个基元 $m$ 都有一个参数映射函数 $P_m : (u, v) \in R^2 \to R^3$,将基元的二维坐标 $(u, v)$ 映射到三维点。
- 边界确定 :由于基元本身是无界的,基于基元的支持点集建立初始边界 $\Omega_m$。具体做法是,使用高效的RANSAC算法得到支持点集,将其投影到基元的二维参数空间,计算投影点的二维边界框作为初始边界。
- 嵌入网格 :为每个基元 $m$ 分配一个嵌入网格 $\gamma_m$,用于表示基元的几何、纹理和可见性信息。嵌入网格 $\gamma_m$ 由 $k_m$ 个嵌入向量(每个向量长度为 $l$)组成,这些向量沿初始边界 $\Om
ParseMVS:大规模稀疏视图重建解析
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



