ubuntu16.04 运行elasticfusion

本文详细介绍了如何在Ubuntu16.04环境下为KinectV1安装OpenNI2及相关依赖库,并指导读者完成弹性融合(ElasticFusion)的安装与配置过程。

环境:Ubuntu16.04 64bit

     Kinect V1 XBOX 360

1.安装OpenNI2并试运行

https://fredfire1.wordpress.com/2016/09/23/install-and-setup-kinect-xbox-360-1473-debian-ubuntu-64bit/

基本历程参照该链接配置。这里注意在/OpenNI-Linux-x64-2.2/Tools/OpenNI2/Drivers路径下也复制一个libFreenectDriver.so驱动NiViewer才能运行。

2.安装相关依赖项和库

1)一起写到这里,先都装了吧,早晚都要用。 

复制代码
sudo apt-get install build-essential libgtk2.0-dev libjpeg-dev libtiff4-dev libjasper-dev libopenexr-dev cmake python-dev python-numpy python-tk libtbb-dev libeigen2-dev yasm libfaac-dev libopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-dev libxvidcore-dev libx264-dev libqt4-dev libqt4-opengl-dev sphinx-common texlive-latex-extra libv4l-dev libdc1394-22-dev libavcodec-dev libavformat-dev libswscale-dev

sudo apt-get install build-essential cmake git libgtk2.0-dev pkg-config libavcodec-dev libavformat-dev libswscale-dev python-dev python-numpy libtbb2 libtbb-dev libjpeg-dev libpng-dev libtiff-dev libjasper-dev libdc1394-22-dev

sudo add-apt-repository ppa:openjdk-r/ppa //新的版本没有这个库了 自己加载
sudo apt-get update

sudo apt-get install -y cmake-qt-gui git build-essential libusb-1.0-0-dev libudev-dev openjdk-7-jdk freeglut3-dev libglew-dev libsuitesparse-dev libeigen3-dev zlib1g-dev libjpeg-dev libboost1.58-dev libboost1.58-all-dev libeigen3-dev libflann-dev libvtk5-dev libqhull-dev
sudo apt-get install libopenni-dev libopenni2-dev //主要用于环境配置16.04之前不能直接装
复制代码

 

3.安装并运行elasticfusion

在git上下载elasticfusion按照readme和build.sh安装。

最后在GUI的make的过程中用ccmake。

cd ../../GUI
mkdir build
cd build
ccmake ../src
make -j8

按t进入高级配置窗口,OpenNI2的lib路径不要选根目录那个(默认是这个),改成我们自己装的那个libopenni2.so(/home/lsp/kinect/tmp/OpenNI-Linux-x64-2.2/Samples/Bin/libOpenni2.so) (第1步安装的)

个人理解:

为什么要这么做呢,因为新的Ubuntu版本,可以直接install libopenni。但是libopenni2.so没有链接到libFreenectDriver.so Kinect相机驱动,所以需要用已连接好的驱动。

转载于:https://www.cnblogs.com/sp-li/p/7680640.html

实时全局一致的3D重建,使用动态表面重新整合技术实时,高品质,大尺寸场景的3D扫描是混合现实和机器人应用的关键。然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了显着的错误。方法通常需要几个小时的离线处理来全局纠正模型错误。最近的在线方法证明了令人信服的结果,但遭受以下缺点:(1)需要几分钟的时间才能执行在线修正,影响了真正的实时使用; (2)脆弱的帧到帧(或帧到模型)姿态估计导致许多跟踪失败;或(3)仅支持非结构化的基于点的表示,这限制了扫描质量和适用性。我们通过一个新颖的,实时的端对端重建框架来系统地解决这些问题。其核心是强大的姿态估计策略,通过考虑具有高效分层方法的RGB-D输入的完整历史,针对全局摄像机姿态优化每帧。我们消除了对时间跟踪的严重依赖,并且不断地将其定位到全局优化的帧。我们提出了一个可并行化的优化框架,它采用基于稀疏特征和密集几何和光度匹配的对应关系。我们的方法估计全局最优化(即,束调整的姿势)实时,支持从总跟踪故障(即重新定位)恢复的鲁棒跟踪,并实时重新估计3D模型以确保全局一致性;都在一个框架内。我们优于最先进的在线系统,质量与离线方法相同,但速度和扫描速度前所未有。我们的框架导致尽可能简单的扫描,使用方便和高质量的结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值