
图形学知识
文章平均质量分 70
简单说鸭
这个作者很懒,什么都没留下…
展开
-
使用BundleFusion重建個人數據集【全網最詳細】
使用BundleFusion進行個人數據集的重建,無需生成sens,使用docker原创 2024-03-07 16:30:07 · 1391 阅读 · 0 评论 -
三维点云:PCA(下)open3d
三维点云之PCA应用下在三维点云上的应用主成分方向降维求解点云的法向量拟合平面AABB框点云匹配在三维点云上的应用PCA 是有损的数据压缩方式,它常用于对高维数据进行降维,也就是把高维数据投影到方差大的几个主方向上,方便数据分析。让数据集在某个基上的投影值(也是在这个基上的坐标值)越分散,方差越大,这个基保留的信息也就越多主成分方向# 功能:计算PCA的函数# 输入:# data:点云,NX3的矩阵# correlation:区分np的cov和corrcoef,不输入时默认原创 2021-02-07 13:32:40 · 4657 阅读 · 6 评论 -
三维点云 PCA(上)
三维点云之PCA应用PCAPCA定义PCA属性与作用PCA的实现步骤将原始数据按列组成 n 行 m 列矩阵 X;将 X 的每一行进行零均值化,即减去这一行的均值;求出协方差矩阵 1m∗XXT\frac{1}{m}*XX^Tm1∗XXT;求出协方差矩阵的特征值及对应的特征向量;将特征向量按对应特征值大小从上到下按行排列成矩阵,取前 k 行组成矩阵 P;Y=PX 即为降维到 k 维后的数据。PCAPCA定义PCA(Principal Component Analysis)主成分分析;主成分:可以理解原创 2021-02-04 22:40:19 · 1609 阅读 · 0 评论 -
特征值分解和奇异值分解
这里写目录标题特征值分解和奇异值分解比较相同处不同处特征值分解特征值、特征向量特征值分解特征值分解例子奇异值分解奇异值分解奇异值分解两种方法奇异值分解例子特征值分解和奇异值分解比较相同处提取一个矩阵的重要特征不同处面向的矩阵不同,特征值分解是面向对称矩阵;奇异值分解是任意矩阵都可以特征值分解特征值、特征向量向量形式:Av=λvAv=\lambda vAv=λv几何意义:矩阵A与向量v相乘等于对向量进行一个线性变换(旋转和拉伸):但这里只是进行了拉伸,拉伸的情况用λ\lamb原创 2021-02-04 20:21:09 · 1815 阅读 · 0 评论 -
旋转平移变换矩阵是先旋转还是先平移?
旋转平移变换旋转平移变换矩阵先旋转再平移=rotation*translation原创 2021-01-18 08:33:30 · 3555 阅读 · 0 评论