Deep Neural Networks for Learning Graph Representations论文笔记

该博客探讨了如何使用深度神经网络学习图表示,重点介绍了随机漫游和上下文加权的概念,以及堆叠去噪自编码器在处理PPMI矩阵中的应用。文章提出了一种随机漫游模型,其中节点有α概率继续转移,(1-α)概率返回起点,形成概率向量pk。此外,利用去噪自编码器进行图数据的非线性表示学习,以增强模型的鲁棒性。

Deep Neural Networks for Learning Graph Representations

stack anto-encoder 的相关介绍

网络性质 属性、标签 权重 方向 方法 任务
同质 有权 有向 matrix factorization node classification
异质 无权 无向 random walk link prediction
/ / / 有向&无向 deep learning clustering (community detection)
/ / / / transition matrix visualization

输入:对角矩阵与转移矩阵的相乘,且 α \alpha α概率相乘, 1 − α 1-\alpha 1α 概率回到起点

文章是2016年的,深度学习大火,所以,这篇文章的重点在于应用深度学习,用非线性模型来抓取其中的结构、语义信息。

主体是auto-encoder,auto-encoder的输入是经过随机减少特征的PPMI矩阵,这个PPMI矩阵,是特殊的转移矩阵的经过k步衰减之后的求和。

Random Surfing and Context Weighting

We introduce a row vector p k p_k pk, whose j-th entry indicates the probability of reaching the j-th vertex after k steps of transitions, and p 0 p_0 p0 is the initial 1-hot vector with the value of the i-th entry being 1 and all other entries being 0.

那么其实这里的 p 0 p_0 p0只是第 i i i个节点的起始状态, p k p_k pk是以第

### 关于神经网络语言模型的相关参考文献 #### Neural Probabilistic Language Model (NPLM) Neural Probabilistic Language Models引入了一种基于神经网络的方法来估计词的概率分布。这种方法通过学习连续空间中的词向量表示,能够捕捉到词语之间的语义关系[^1]。 #### Recurrent Neural Network Language Model (RNNLM) Recurrent Neural Networks (RNNs) 是一种专门设计用于处理序列数据的神经网络架构。RNNLM 利用隐藏状态的记忆能力,在自然语言处理任务中表现出色,尤其是在语言建模方面。其主要特点是能够在时间步之间共享参数并保持上下文信息[^2]。 #### Long Short-Term Memory (LSTM) Long Short-Term Memory networks是一种特殊的RNN变体,旨在解决传统RNN面临的长期依赖问题。LSTM通过引入门控机制(输入门、遗忘门和输出门),可以有效地记住长时间的信息流,这使得它成为许多序列预测任务的理想选择[^3]。 #### Convolutional Neural Networks (CNN) in NLP Convolutional Neural Networks最初被广泛应用于计算机视觉领域,但在自然语言处理(NLP)中也显示出强大的性能。对于文本分类、情感分析等任务,CNN可以通过局部特征检测器提取有意义的语言模式[^4]。 #### Unified Architecture for Natural Language Processing 某些研究提出了统一的神经网络框架,该框架可以在多种NLP任务上实现端到端的学习过程。这种架构通常结合了注意力机制和其他先进的技术,从而提高了跨不同应用场景的一致性和效率[^5]。 #### Word Representations in Vector Space Word embeddings是现代NLP的核心组成部分之一,它们将单词映射成高维实数向量的形式,以便更好地反映词汇间的相似度及其语法或语义特性。这些嵌入可以从大规模未标注语料库中学得,并且适用于各种下游任务[^6]。 ```python import torch.nn as nn class SimpleLanguageModel(nn.Module): def __init__(self, vocab_size, embed_dim, hidden_dim): super(SimpleLanguageModel, self).__init__() self.embedding = nn.Embedding(vocab_size, embed_dim) self.rnn = nn.LSTM(embed_dim, hidden_dim, batch_first=True) self.fc = nn.Linear(hidden_dim, vocab_size) def forward(self, x): embedded = self.embedding(x) output, _ = self.rnn(embedded) prediction = self.fc(output[:, -1, :]) return prediction ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值