Deep Neural Networks for Learning Graph Representations
| 网络性质 | 属性、标签 | 权重 | 方向 | 方法 | 任务 |
|---|---|---|---|---|---|
| 同质 | 有 | 有权 | 有向 | matrix factorization | node classification |
| 异质 | 无 | 无权 | 无向 | random walk | link prediction |
| / | / | / | 有向&无向 | deep learning | clustering (community detection) |
| / | / | / | / | transition matrix | visualization |
输入:对角矩阵与转移矩阵的相乘,且 α \alpha α概率相乘, 1 − α 1-\alpha 1−α 概率回到起点
文章是2016年的,深度学习大火,所以,这篇文章的重点在于应用深度学习,用非线性模型来抓取其中的结构、语义信息。
主体是auto-encoder,auto-encoder的输入是经过随机减少特征的PPMI矩阵,这个PPMI矩阵,是特殊的转移矩阵的经过k步衰减之后的求和。
Random Surfing and Context Weighting
We introduce a row vector p k p_k pk, whose j-th entry indicates the probability of reaching the j-th vertex after k steps of transitions, and p 0 p_0 p0 is the initial 1-hot vector with the value of the i-th entry being 1 and all other entries being 0.
那么其实这里的 p 0 p_0 p0只是第 i i i个节点的起始状态, p k p_k pk是以第

该博客探讨了如何使用深度神经网络学习图表示,重点介绍了随机漫游和上下文加权的概念,以及堆叠去噪自编码器在处理PPMI矩阵中的应用。文章提出了一种随机漫游模型,其中节点有α概率继续转移,(1-α)概率返回起点,形成概率向量pk。此外,利用去噪自编码器进行图数据的非线性表示学习,以增强模型的鲁棒性。
最低0.47元/天 解锁文章
2470

被折叠的 条评论
为什么被折叠?



