bundlefusion之环境配置

本文介绍BundleFusion开源算法在3D重建领域的应用,包括环境配置步骤、注意事项及不同传感器使用的调整方法。

bundlefusioin可以说是目前3D重建方面,做的非常优秀的一个开源算法,很值得学习一下。这篇博客 简要说明的还阔以,给个链接:https://blog.youkuaiyun.com/fuxingyin/article/details/52921958

写在文章前:

在这个重建方面,我还只是个菜鸡,所以有错误请勿喷。如果给您提供了帮助,请各位留言“作者大大真帅”,如果有疑问,请留言“菜鸡作者,XXXXXXXX(你的问题)”

bundlefusion环境配置时,github上给的说明还挺详细的,照着做慢慢来总会配通的。。

下面是我的配置过程,以及已经修改过后的工程。

工程链接见右========>(mmp,csdn资源上传有限制,下面的东东,各位就借鉴借鉴吧)

 

哈哈哈哈哈哈哈,想要看我的配置过程?不存在的,too young too simple!

好吧配置过程和github上没有差别,各位还是去看正版的吧,我就不抄作业了,下面是根据我遇到的一些小坑写的总结,各位看看笑笑即可

It`s important!!!!!
It`s important!!!!!
It`s important!!!!!

重要事情说三遍

1.务必使用vs2013来编译。。。。
    不然的话mLib库需要你自己重新编译,还有一系列问题,具体问题请谷歌

2.cuda版本为8.0
    不是的话,请按照vs的提示修改,百度一下你就知道

3.在工程里,你要重新配置openNI2的路径

4.不同的传感器使用,需要修改代码(默认的是kinect,忘了1代还是2代了)
    修改部分一个在GlobalAppState.h下,另一个在zParametersDefault.txt下,两个都要改


At the end:
我的环境配置是:win10,cuda8.0,  vs2013,  RGBD传感器用的华硕的prime sensor
(所以是通过openni来获取的,如果你的是kinect的话,可以使用kinect sdk来获取,这个配置下环境就好,很简单;
    如果你是orbbec的传感器的话,那么要修改下代码,通过opencv来获取图像)
    
如果你是按照我的环境要求来的话,那么只需要做两步,只要两步:
    1)安装DirectX的驱动,这个安装包里提供了,如果已经安装过,请忽略
    2)在工程中重新定义一下你的openni2路径,编译应该就没问题了。
            but,orbbec的传感器请记得使用“官翻”的openni,并将openni2的某一些文件(自己看openni/readme)拷贝到可执行文件目录下!!!!

 

转载请说明来处,谢谢~

best wishes,

 

实时全局一致的3D重建,使用动态表面重新整合技术实时,高品质,大尺寸场景的3D扫描是混合现实和机器人应用的关键。然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了显着的错误。方法通常需要几个小时的离线处理来全局纠正模型错误。最近的在线方法证明了令人信服的结果,但遭受以下缺点:(1)需要几分钟的时间才能执行在线修正,影响了真正的实时使用; (2)脆弱的帧到帧(或帧到模型)姿态估计导致许多跟踪失败;或(3)仅支持非结构化的基于点的表示,这限制了扫描质量和适用性。我们通过一个新颖的,实时的端对端重建框架来系统地解决这些问题。其核心是强大的姿态估计策略,通过考虑具有高效分层方法的RGB-D输入的完整历史,针对全局摄像机姿态优化每帧。我们消除了对时间跟踪的严重依赖,并且不断地将其定位到全局优化的帧。我们提出了一个可并行化的优化框架,它采用基于稀疏特征和密集几何和光度匹配的对应关系。我们的方法估计全局最优化(即,束调整的姿势)实时,支持从总跟踪故障(即重新定位)恢复的鲁棒跟踪,并实时重新估计3D模型以确保全局一致性;都在一个框架内。我们优于最先进的在线系统,质量与离线方法相同,但速度和扫描速度前所未有。我们的框架导致尽可能简单的扫描,使用方便和高质量的结果。
评论 34
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值