Sparse Principal Component Analysis via Regularized Low Rank Matrix Approximation(Adjusted Variance)

本文探讨了一种基于交替算法的最优分解方法,针对中心化样本矩阵X进行rank-1分解,通过引入惩罚项实现稀疏化,并详细介绍了AdjustedVariance算法的原理与应用,展示了其在矩阵分解领域的独特优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

前言

这篇文章用的也是交替算法,不得不说,这个东西太好用了,变来变去怎么都能玩出花来。这篇论文的关键之处,我感觉是对adjusted variance的算法,比较让人信服。

文章概述

在这里插入图片描述
\(X是中心化的样本矩阵\)
在这里插入图片描述
考虑下面的一个最优分解(F-范数)。
在这里插入图片描述
本文采取的也是一种搜索算法,每次计算一个载荷向量,所以,每次都处理的是rank-1的分解。

也就是:
在这里插入图片描述

为了稀疏化,必须加上惩罚项,一般的就是1-范数或者0-范数。
在这里插入图片描述
限定\(\|\widetilde{\mathrm{u}}\|=1\)

固定\(\widetilde{\mathrm{v}}\)

跟之前的论文差不了太多,挺好证的。
在这里插入图片描述

固定\(\widetilde{\mathrm{u}}\)

上述问题,根据下面的改写:
在这里插入图片描述
于是就可以分解为多个等价的小问题,每个子问题只需要考虑\(\widetilde{v}_j\)就可以了。
根据不同的截断手法,有不同的解:
在这里插入图片描述
注:对于第一种方法,存疑,因为我证出来的不大一样,当然,可能是我哪里搞错了。
还有一点要注意:因为最后我们要求的其实是载荷向量\(\mathrm{v}\),它只需在最后收敛后归一化即可,看下来算法:
在这里插入图片描述

Adjusted Variance

在这里插入图片描述

转载于:https://www.cnblogs.com/MTandHJ/p/10527945.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值