
论文阅读笔记
文章平均质量分 90
墨痕_777
这个作者很懒,什么都没留下…
展开
-
Can GNN go “online”?an analysis of pretraining and inference
在图结构数据的学习方面都取得了不错的效果,特别是采用学习方式时,即测试集和验证集在训练的时候是可见的情况下。然而,在很多实际应用中,大规模图结构数据通常不是静态的而是动态的,即随着时间的的推移会出现新的节点和边插入,例如社交网络,引文网络或者一些在线图结构数据应用。本篇博文将为大家介绍该问题,以及通过对比实验对改问题进行分析与总结。该博文主要来自论文。翻译 2024-07-02 16:35:32 · 49 阅读 · 0 评论 -
Attention Models in Graphs: A Survey 翻译
应用于图结构数据的三种主要注意力机制方法:学习注意力权重,基于相似性的注意力,注意力引导的游走法。这三种注意力机制具有相同的目的或意图,但是他们在定义或实现注意力机制的方法方面存在差异。解释(图注意力):给定一个目标图对象(eg:节点,边,图等),v0和 一个在v0的邻域v1⋯v∣Γv0∣∈Γv0内的图对象集合。注意力被定义为将Γv0中每个对象映射到相关性得分的函数f′v0×Γv0→01。翻译 2024-07-02 16:34:05 · 59 阅读 · 0 评论