降维技术与推荐系统:原理、优化与实践
1. 主成分分析(PCA)问题的优化
主成分分析(PCA)是一种经典的特征降维技术,用于缩小每个数据点的维度。在PCA问题中,问题(9.14)对于变量C和W分别是凸的,但同时考虑时是非凸的。解决这个问题的自然方法是交替独立地最小化(9.14)中的C和W。
实际上,基于矩阵X的奇异值分解(SVD),方程(9.14)有一个封闭形式的解。设X的SVD为X = USVᵀ,则解为:
[
C^{\star}= U_{K}S_{K,K} \
W^{\star}= V_{K}^{T}
]
其中,$U_{K}$和$V_{K}$分别是左奇异矩阵U和右奇异矩阵V的前K列组成的矩阵,$S_{K,K}$是奇异值矩阵S的上K×K子矩阵。由于$U_{K}$是正交矩阵,恢复的基(用于低维子空间)确实是正交的。
这些特定的基元素跨越了原始数据集的所谓正交方差(或散布)方向。虽然在将PCA用作预处理技术时,这个特性并不是特别有用,但在统计学和社会科学等领域的探索性数据分析中经常使用。
1.1 PCA优化步骤
- 对矩阵X进行奇异值分解,得到X = USVᵀ。
- 根据公式计算$C^{\star}$和$W^{\star}$。
2. 推荐系统
推荐系统在当今电子商务中被广泛使用,通过利用消费者的先前购买和评分历史以及类似消费者的信息,为客户提供个性化的产品和服务推荐。例如,像Netflix这样的电影提供商,拥有数百万用户和数万部电影,会将用户的评论和评分记录在一个大型矩阵中。这些矩阵通常非常稀疏,因为单
超级会员免费看
订阅专栏 解锁全文
1627

被折叠的 条评论
为什么被折叠?



