Learning the parts of objects by non-negative matrix factorization
由于NMF使用非负矩阵来分解原有矩阵(V=WH),因此,在分解时,只会进行“加”操作数据,不会进行减操作,因此在进行因式分解时。W可以当做提取出来的各个相关度不大的特征,也就是其中所说的Basis images和whole faces,而H可以表示编码encoding。
正是因为矩阵为非负的,因此它能够实现parts-based representation。
编码(encoding)(H)表示一张脸(图片)(V),可以表示成Basis images(W)的线性组合。
W为n*r的,H为r*m的,V为n*m的。
其中r的取值应符合(n+m)<nm。
NMF用于文本语义分析(semantic analysis of text documents):
文档集合用矩阵V表示,Viu表示第 u 个文档,词 i 出现的次数。
使用NMF获得W矩阵和F矩阵。
在试验中,使用m=30,991个文档和n=15,276个词,生成Vnm

本文探讨了非负矩阵分解(NMF)在学习对象部分和文本语义分析中的作用。通过非负约束,NMF能够实现基于部件的表示,并用于提取文档的语义特征。在面部识别和文档理解的实验中,NMF自动聚集描述相似概念的词汇。然而,NMF并不适用于所有复杂模型的学习,可能需要多级的隐藏变量。尽管非负限制有助于部分表示,但NMF无法捕获部分之间的句法关系,且假设的隐藏变量统计独立性并未得到保证。
最低0.47元/天 解锁文章
836

被折叠的 条评论
为什么被折叠?



