- 博客(6)
- 收藏
- 关注
原创 【Transformer】Attention Is All You Need
主要的序列转导模型是基于复杂的循环或卷积神经网络,其中包括一个编码器和一个解码器。性能最好的模型还通过一种注意机制将编码器和解码器连接起来。我们提出了。在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更并行,需要的训练时间明显更少。成功地将Transformer应用到训练数据大和有限的英语选区解析中,可以很好地推广到其他任务。
2023-02-10 22:38:48
249
原创 (HGNN) Hypergraph Neural Networks
提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以有效地使用超边卷积运算来进行。HGNN能够学习考虑高阶数据结构的隐藏层表示,这是一个考虑复杂数据相关性的通用框架。我们进行了引文网络分类和视觉目标识别任务的实验,并将HGNN与图卷积网络等传统方法进行了比较。
2023-02-10 17:46:55
3195
1
原创 【[GCN]semi-supervised classification with graph convolutional networks】
提出了一种可扩展的图结构数据的半监督学习方法,该方法基于直接在图上操作的卷积神经网络的有效变体。通过光谱图卷积的局部一阶近似来激发我们的卷积体系结构的选择。我们的模型在图边的数量上呈线性扩展,并学习编码局部图结构和节点特征的隐藏层表示。在引文网络和知识图数据集上的许多实验中,我们证明了我们的方法显著优于相关方法。
2023-02-10 16:21:46
889
原创 论文阅读-(HyperGAT)Be More with Less: Hypergraph Attention Networks for Inductive Text Classification
在一般情况下,超图中的每个节点都可以带有一个d维属性向量。因此,所有节点属性都可以表示为X = [x1,x2,…,xn]T∈×,为了简单,使用G =(A,×)来表示整个超图。1.Sequential Hyperedges(序列超边)描述单词间局部共现的语言属性首先为语料库中的每个文档构造顺序超边。将每个句子都视为一个超边,并将这个句子中的所有单词连接起来。使用句子作为顺序超边,使我们的模型能够同时捕获文档结构信息。2.Semantic Hyperedges.(语义超边)
2023-02-08 21:11:55
1192
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅