Non-Negative Matrix Factorization 非负矩阵分解(NMF)

非负矩阵分解(NMF)是一种在所有元素均为非负数约束条件下的矩阵分解方法,由D.D.Lee和H.S.Seung于1999年提出。NMF能够将一个非负矩阵分解为两个非负矩阵的乘积,常用于数据压缩、特征提取和降维。本文详细介绍了NMF的基本思想、问题描述、算法流程以及应用案例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Non-Negative Matrix Factorization 非负矩阵分解(NMF)

简介及基本思想

1999年由D.D.LeeH.S.Seung提出的新的矩阵分解思想,在矩阵中所有元素均为非负数约束条件下的矩阵分解方法,通过矩阵分解,可以对描述问题的矩阵进行将为,另一方面可以对大量的数据进行压缩和概括。

原文论文为:《Algorithms for Non-negative Matrix Factorization》

NMF的基本思想为:对于任意给定的一个非负矩阵ANMF可以找到两个非负矩阵UV,使得满足A=UV,从而将一个非负矩阵分解为左右两个非负矩阵的乘积。

问题描述

利用公式描述为:
V n ∗ m ≈ W n ∗ r ⋅ H r ∗ m V_{n*m}\approx W_{n*r}\cdot H_{r*m} VnmWnrHrm
公式中的约等于是因为当前解法并非精确解,而只是数值上的近似解,并且r远远小于nm,一般情况下满足(n+m)r<nm。在有的文献中,r也被称为隐藏空间的维度。

因为原矩阵V中的一列向量可以解释为W矩阵中所有列向量的加权和,并且权重系数对应为H矩阵中对于列向量的元素,因此一般称W矩阵为基矩阵,而H为权矩阵。

在论文中指出,非负矩阵分解是一个NP问题,可以划分为优化问题用迭代方法交替求UV

具体算法流程

损失函数
欧式距离:

∥ A − B ∥ 2 = ∑ i j ( A i j − B i j ) 2 {\left\Vert A-B \right\Vert}^2 =\sum_{ij}(A_{ij}-B_{ij})^2 AB2=ij(AijBij)2

AB之间的散度:

D ( A ∥ B ) = ∑ i j ( A i j log ⁡ A i j B i j − A i j + B i j ) D(A\|B)=\sum_{ij}(A_{ij}\log\frac{A_{ij}}{B_{ij}}-A_{ij}+B_{ij}) D(AB)=ij(AijlogBijAijAij+Bij)

基于乘法更新法阵的迭代更新算法,将矩阵分解算法转化为最小化两个矩阵之间的欧几里得距离的优化问题:
min ⁡ ∥ V − V ′ ∥ 2 = ∑ i j ( V i j − V i j ′ ) 2 \min{\left\Vert V-V' \right\Vert}^2 =\sum_{ij}(V_{ij}-V'_{ij})^2 minVV2=ij(VijVij)2
其中V是原始矩阵,V'是分解后的矩阵重构而成的矩阵,乘法更新规则如下,首先是H矩阵,权矩阵:
H a μ ← H a μ ( W T V ) a μ ( W T W H ) a μ H_{a\mu}\leftarrow H_{a\mu}\frac{(W^TV)_{a\mu}}{(W^TWH)_{a\mu}} HaμHaμ(WTWH)aμ(WTV)aμ
其中amu指的是矩阵的第a行第mu列元素,当分母的等式为0的时候,对应位置元素不做更新。

接下来是W矩阵,基矩阵:
W i a ← W i a ( V H T ) i a ( W H H T ) i a W_{ia}\leftarrow W_{ia}\frac{(VH^T)_{ia}}{(WHH^T)_{ia}} WiaWia(WHHT)ia(VHT)ia
其中ia指的是矩阵的第i行第a列元素,当分母的等式为0的时候,对应位置元素不做更新。

说明

非负矩阵分解就是将原有矩阵分解为基矩阵和权矩阵,其中基矩阵能够很好的描述概括原有矩阵的特征信息,例如原图是一张人脸,那么基矩阵中的内容就是人的五官特征。此外,经过压缩的基矩阵可以降低维度,减少计算量。

流量矩阵预测的文章中,就是参考非负矩阵分解,将每一个时间片的流量矩阵分解成基矩阵和权矩阵,再将多个时间片逐个计算,最终得到下一个时间片的基矩阵和权矩阵,完成预测。

参考:
1、非负矩阵分解(NMF)及一个小实例——(作者:姚烦了)
2、非负矩阵分解NMF——(作者:柚子皮)

### 非负矩阵分解的概念 非负矩阵分解(Non-negative Matrix Factorization, NMF)是一种用于降维的技术,其目标是在保持数据非负性的前提下将高维度的数据表示为低维度的形式。具体来说,给定一个非负矩阵 \(X\)NMF旨在找到两个较低秩的非负矩阵\(U\) 和 \(V\) ,使得 \(UV^T \approx X\) 。这种近似通常通过最小化重构误差来实现,即最小化Frobenius范数 \(|| X - UV^T ||^2\) [^1]。 对于成本函数的选择,在基本的NMF算法中,常用的是基于欧几里得距离的成本函数以及Kullback-Leibler散度作为替代选项之一[Lee & Seung, 2001][^2]。 ### 实现方法 下面是一个简单的Python代码片段展示如何利用`scikit-learn`库中的`NMF`类来进行非负矩阵分解: ```python from sklearn.decomposition import NMF import numpy as np # 假设我们有一个形状为(n_samples, n_features)的输入矩阵X n_components = 5 # 设定要提取的主题数量/特征数目 model = NMF(n_components=n_components, init='random', random_state=0) W = model.fit_transform(X) # W代表样本在新空间下的坐标 H = model.components_ # H代表新的基向量组成的矩阵 ``` 在这个例子中,`fit_transform()` 方法返回的是变换后的样本矩阵 `W` (大小为 `(n_samples, n_components)`),而 `components_` 属性则保存着学习到的基础矩阵 `H` (大小为 `(n_components, n_features)`)。这两个矩阵相乘可以得到原始输入矩阵的一个近似版本。 ### 应用场景 非负矩阵分解广泛应用于多个领域内,特别是在处理具有自然部分加性结构的数据集时表现优异。典型的应用包括但不限于文档聚类、图像分析、音频信号处理等领域。例如,在文本挖掘任务中,可以通过对词频统计表执行NMF操作从而发现潜在主题;而在推荐系统设计方面,则可用于预测用户偏好并提供个性化服务建议[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值