矩阵常见分解算法及其在SLAM中的应用

https://eigen.tuxfamily.org/dox/group__TutorialLinearAlgebra.html
在这里插入图片描述

常见特殊矩阵定义

  • 酉矩阵,正交矩阵
    • A的元素是属于复数域矩阵,如果 A A ∗ = I AA^{*} = I AA=I,那么A是属于酉矩阵(Unitary Matrix)
    • A的元素是属于实数域矩阵,如果 A A T = I AA^{T} = I AAT=I,那么A是属于正交矩阵(Orthogonal Matrix),当然也是Unitary Matrix
  • 埃尔米特矩阵,对阵矩阵
    • A的元素是属于复数域矩阵,如果 A = A ∗ A = A^{*} A=A,那么A是属于埃尔米特矩阵(Hermitian Matrix)
    • A的元素是属于实数域矩阵,如果 A = A T A = A^{T} A=AT,那么A是属于对称矩阵(Symmetric Matrix),当然也是Hermitian Matrix
  • 正定矩阵
    在这里插入图片描述

Cholesky分解(正定Hermittian矩阵,分解结果唯一)

将一个正定Hermitian矩阵分解为两个下三角矩阵的乘积
A = L L T A = LL^T A=LLT
另一种分解方式 A = L L T = L D L T A = LL^T = LDL^T A=LLT=LDLT,要求A是半正定或者半负定矩阵,条件比上面的分解方式宽松

Cholesky分解应用

  • 对于LinearGaussian 系统的状态估计问题求解 H T W − 1 H x = H T W − 1 Z H^TW^{-1}Hx = H^TW^{-1}Z HTW1Hx=HTW1Z
    求解x的时候会把 H T W − 1 H = L L ∗ H^TW^{-1}H = LL^{*} HTW1H=LL 分解完,令 L ∗ x = d L^{*}x = d Lx=d
    (1)求解 L d = H T W − 1 Z Ld = H^TW^{-1}Z Ld=HTW1Z中的d
    (2)求解 L ∗ x = d L^{*}x = d Lx=d中的x
    以上可以导出LG系统的batch递推形式,包括5个前向公式和1个后项公式。其等价于RTS算法。

SVD分解(将singularvalues排序后分解唯一)

将任意矩阵 A M × N = U M ∗ M Σ M × N V N × N A_{M \times N} = U_{M*M} \Sigma_{M \times N} V_{N \times N} AM×N=UMMΣM×NVN×N,其中 U和V都是Unitary Matrix, Σ \Sigma Σ是对角矩阵,
如果M > N,如下图。U_null_space.transpose() * A 应该是零矩阵。
反之如N> M,会有A * V_null_space为零矩阵。
MSCKF利用零空间这个性质,可以消除feature 3d位置估计误差在整个残差中的影响。

  Eigen::MatrixXd A = Eigen::MatrixXd::Random(6, 3);
  // Eigen::MatrixXd A = Eigen::MatrixXd::Random(3, 6);
  A << 1, 0, -1, -2, 1, 4, 3, 4, 5, 5, -7, 9, -1, 4, -6, 4, 7, -9;

  cout << "Here is the matrix A:" << endl << A << endl << endl;
  // do SVD decomposition, and print out the singular values
  Eigen::JacobiSVD<Eigen::MatrixXd> svd(
      A, Eigen::ComputeFullU | Eigen::ComputeFullV);
  cout << "Its singular values are:" << endl
       << svd.singularValues() << endl
       << endl;
  cout << "Its left singular vectors are the columns of the thin U matrix:"
       << endl
       << svd.matrixU() << endl
       << endl;
  cout << "Its right singular vectors are the columns of the thin V matrix:"
       << endl
       << svd.matrixV() << endl
       << endl;

  const int dim = svd.singularValues().size();
  if (A.rows() >= A.cols()) {
    const Eigen::MatrixXd U_null_space =
        svd.matrixU().rightCols(A.rows() - dim);
    const Eigen::MatrixXd U_null_space_times_A = U_null_space.transpose() * A;
    cout << "U null space * A" << endl
         << U_null_space_times_A << endl
         << endl;  // should be zero
  } else {
    const Eigen::MatrixXd V_null_space =
        svd.matrixV().rightCols(A.cols() - dim);
    const Eigen::MatrixXd A_times_V_null_space = A * V_null_space;
    cout << "A * V null space" << endl
         << A_times_V_null_space << endl
         << endl;  // should be zero
  }

  cout << "U*U^T = \n"
       << svd.matrixU() * svd.matrixU().transpose() << endl
       << endl;  // should be identity
  cout << "V*V^T = \n"
       << svd.matrixV() * svd.matrixV().transpose() << endl
       << endl;  // should be identity

  return 0;

在这里插入图片描述

SVD 分解的应用(任意矩阵)

  • 用于PCA,SVD的奇异值的平方等于特征值,即 σ i = λ i \sigma_i = \sqrt{\lambda_i} σi=λi 。比如一堆点云,可以利用PCA性质提取line point和plane point。
  • 求矩阵零空间。MSCKF中的应用。矩阵列向量的零空间维度为:dim(null space) = cols(A) - rank(A)
    • 行向量子空间的维度 = rank(A) = m - (A的零空间的维度)= m - dim[Null(A)]
    • 列向量子空间的维度 = rank(A) = n - (A的零空间的维度)=n - dim[Null(A)]

QR分解(任意矩阵,如果A可逆并且限定分解R对角线为正,则分解唯一)

一个m*n矩阵A(m>=n),可以分解为一个Unitary Matrix Q和一个上三角矩阵R
A m × n = Q m × m R m × n A_{m \times n} = Q_{m \times m} R_{m \times n} Am×n=Qm×mRm×n
其中R的后m-n行全部为零,可以写作
A = Q R = Q [ R 1 n × n 0 ] = [ Q 1 m × n Q 2 m × ( m − n ) ] [ R 1 n × n 0 ( m − n ) × n ] = Q 1 m × n R 1 n × n A=Q R=Q\left[\begin{array}{c} R_{1_{n \times n}} \\ 0 \end{array}\right]=\left[\begin{array}{ll} Q_{1_{m \times n}} & Q_{2_{m \times (m-n)}} \end{array}\right]\left[\begin{array}{c} R_{1_{n \times n}} \\ 0_{(m-n) \times n} \end{array}\right]=Q_{1_{m \times n}} R_{1_{n \times n}} A=QR=Q[R1n×n0]=[Q1m×nQ2m×(mn)][R1n×n0(mn)×n]=Q1m×nR1n×n
类似的可以有QL,RQ,LQ分解,其中L是下三角矩阵。

  Eigen::MatrixXd A = Eigen::MatrixXd::Random(6, 3);
  A << 1, 0, -1, -2, 1, 4, 3, 4, 5, 5, -7, 9, -1, 4, -6, 4, 7, -9;
  Eigen::VectorXd b = Eigen::VectorXd::Random(6);

  Eigen::ColPivHouseholderQR<Eigen::MatrixXd> qr(A);
  MatrixXd householderQ = qr.householderQ();
  MatrixXd matrixQ = qr.matrixQ();  // 和householderQ一样
  MatrixXd matrixQR_triangular_upper =
      qr.matrixQR().triangularView<Eigen::Upper>();
  MatrixXd matrixR = qr.matrixR();

  cout << "The rank of A is " << qr.rank() << endl << endl;
  cout << "householderQ matrix is:\n" << householderQ << endl << endl;
  cout << "matrixQ matrix is:\n" << matrixQ << endl << endl;
  cout << "matrixQR matrix is:\n" << qr.matrixQR() << endl << endl;
  cout << "matrixQR.triangularView<Eigen::Upper>() matrix is:\n"
       << matrixQR_triangular_upper << endl
       << endl;
  cout << "matrixR matrix is:\n" << matrixR << endl << endl;

  // Do QR decomposition to sove Ax = b
  Eigen::VectorXd x = qr.solve(b);
  cout << "The solution is:\n" << x << endl << endl;

[图片]

QR分解应用

  • 求矩阵的零空间,类似SVD
  • 用来求解线性最小二乘问题 A m × n x n × 1 = b m × 1 A_{m\times n}x_{n \times 1} = b_{m \times 1} Am×nxn×1=bm×1, m >> n
    通常的解法 x = ( A T A ) m × m − 1 b x = (A^TA)_{m \times m}^{-1}b x=(ATA)m×m1b 直接求逆的话,维度很大,耗时
    将A进行QR分解,化简得到 R 1 x = Q 1 T b R_1 x = Q_1^Tb R1x=Q1Tb 并且R1是上三角矩阵,无需求逆,直接方程最后一行开始求解,便可以快速得到x
  • Kalman filter中观测量的维度m过大导致m>>状态维度n, H m × n H_{m \times n} Hm×n矩阵计算 ( H P H T + R ) − 1 (HPH^T + R)^{-1} (HPHT+R)1非常耗时
 const MatrixXX innovation_covariance = H * P * HT + V;
 const MatrixNX K = P * HT * innovation_covariance.inverse();

观测误差方程 r ( x ) = H X ~ + n 0 r(x) = H \tilde{X} + n_0 r(x)=HX~+n0
对H进行QR分解,两边乘以 Q T Q^T QT并带入上式得到 [ Q 1 T r o Q 2 T r o ] = [ R 1 0 ] X ~ + [ Q 1 T n o Q 2 T n o ] \left[\begin{array}{l} \mathbf{Q}_1^T \mathbf{r}_o \\ \mathbf{Q}_2^T \mathbf{r}_o \end{array}\right]=\left[\begin{array}{c} \mathbf{R}_1 \\ \mathbf{0} \end{array}\right] \tilde{\mathbf{X}}+\left[\begin{array}{l} \mathbf{Q}_1^T \mathbf{n}_o \\ \mathbf{Q}_2^T \mathbf{n}_o \end{array}\right] [Q1TroQ2Tro]=[R10]X~+[Q1TnoQ2Tno]
于是观测量维度为m的问题转化为了观测量维度为n的
Q 1 T r 0 = R 1 X ~ + Q 1 T n 0 Q_1^Tr_0 = R1 \tilde{X} + Q_1^T n_0 Q1Tr0=R1X~+Q1Tn0
将原问题中的H,残差r,观测噪声n都进行了变换,代码实现如下

  MatrixXd H_thin;
  VectorXd r_thin;

  if (H.rows() > H.cols()) {
    // Convert H to a sparse matrix.
    SparseMatrix<double> H_sparse = H.sparseView();

    // Perform QR decompostion on H_sparse.
    SPQR<SparseMatrix<double>> spqr_helper;
    spqr_helper.setSPQROrdering(SPQR_ORDERING_NATURAL);
    spqr_helper.compute(H_sparse);

    MatrixXd H_temp;
    VectorXd r_temp;
    (spqr_helper.matrixQ().transpose() * H).evalTo(H_temp);
    (spqr_helper.matrixQ().transpose() * r).evalTo(r_temp);

    H_thin = H_temp.topRows(21 + state_server.cam_states.size() * 6);
    r_thin = r_temp.head(21 + state_server.cam_states.size() * 6);

    // HouseholderQR<MatrixXd> qr_helper(H);
    // MatrixXd Q = qr_helper.householderQ();
    // MatrixXd Q1 = Q.leftCols(21+state_server.cam_states.size()*6);

    // H_thin = Q1.transpose() * H;
    // r_thin = Q1.transpose() * r;
  } else {
    H_thin = H;
    r_thin = r;
  }

  // Compute the Kalman gain.
  const MatrixXd &P = state_server.state_cov;
  MatrixXd S = H_thin * P * H_thin.transpose() +
               Feature::observation_noise *
                   MatrixXd::Identity(H_thin.rows(), H_thin.rows());
  // MatrixXd K_transpose = S.fullPivHouseholderQr().solve(H_thin*P);
  MatrixXd K_transpose = S.ldlt().solve(H_thin * P);
  MatrixXd K = K_transpose.transpose();

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值