和基于 SVD 的降维(将原始的高维空间通过线性变换隐射到低维空间上)不同,深度神经网络,比如 stacked auto-encoders 学习到的映射都是高度非线性的。
论文开头,通过介绍 Deepwalk,说明如何将节点的表示转化成线性表示。 展示两种word 向量表示方法:1,负采样的skip-gram和基于PPMI矩阵的矩阵分解。
矩阵分解,利用词和词的共现矩阵来产生词向量表示,主要缺点是一些没有语义价值的如停用词,在产生词向量时发挥不成比例的作用。基于此有人提出了pointwise mutual information(PMI)矩阵。

A stacked autoencoderPPMI矩阵是 当PMI为负值时,取0.

PPMI是个高维矩阵,可以通过 SVD 进行矩阵分解,产生 d 维因子。 U和V都是正交矩阵,中间是对角矩阵。

词向量可以表示为R,通过对角矩阵的top-d 得到。

本文探讨了深度神经网络在学习图表示中的应用,以stacked auto-encoders为例,对比了基于SVD的降维方法。论文通过Deepwalk介绍了如何将节点转化为线性表示,并讨论了word向量的skip-gram和PPMI矩阵分解方法。DNGR模型采用random surfing model捕获图结构信息,结合PPMI矩阵和stacked denoising autoencoder学习低维图节点表示,解决了weighted图的embedding学习问题。
最低0.47元/天 解锁文章
1122

被折叠的 条评论
为什么被折叠?



