主要参考https://www.cnblogs.com/pinard/p/6251584.html,
https://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html
奇异值分解(Singular Value Decomposition,SVD),用于降维算法的特征分解、推荐系统、NLP等
1.特征值和特征向量
Ax=λx A x = λ x
方阵
A:n×n
特征向量
x:1×n—— w1,w2,...,wn w 1 , w 2 , . . . , w n
特征值
: λ λ —— λ1≤λ2≤...≤λn λ 1 ≤ λ 2 ≤ . . . ≤ λ n
A=WΣW−1 A = W Σ W − 1
W:n×n,上述特征向量集合
Σ Σ :n×n,主对角线为n个特征值的对角矩阵
标准化得 ‖wi‖2=1 ‖ w i ‖ 2 = 1 ,则 wT