Deep Neural Networks for Learning Graph Representations论文笔记

该博客探讨了如何使用深度神经网络学习图表示,重点介绍了随机漫游和上下文加权的概念,以及堆叠去噪自编码器在处理PPMI矩阵中的应用。文章提出了一种随机漫游模型,其中节点有α概率继续转移,(1-α)概率返回起点,形成概率向量pk。此外,利用去噪自编码器进行图数据的非线性表示学习,以增强模型的鲁棒性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Deep Neural Networks for Learning Graph Representations

stack anto-encoder 的相关介绍

网络性质 属性、标签 权重 方向 方法 任务
同质 有权 有向 matrix factorization node classification
异质 无权 无向 random walk link prediction
/ / / 有向&无向 deep learning clustering (community detection)
/ / / / transition matrix visualization

输入:对角矩阵与转移矩阵的相乘,且 α \alpha α概率相乘, 1 − α 1-\alpha 1α 概率回到起点

文章是2016年的,深度学习大火,所以,这篇文章的重点在于应用深度学习,用非线性模型来抓取其中的结构、语义信息。

主体是auto-encoder,auto-encoder的输入是经过随机减少特征的PPMI矩阵,这个PPMI矩阵,是特殊的转移矩阵的经过k步衰减之后的求和。

Random Surfing and Context Weighting

We introduce a row vector p k p_k pk, whose j-th entry indicates the probability of reaching the j-th vertex after k steps of transitions, and p 0 p_0 p0 is the initial 1-hot vector with the value of the i-th entry being 1 and all other entries being 0.

那么其实这里的 p 0 p_0 p0只是第 i i i个节点的起始状态, p k p_k pk是以第

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值