又是看了好几天,别拖延了!!
个人感觉这篇论文的模型性能提升不是很高,而且作为baseline的模型也没有其他论文里多,实验过程直接说按照GraphMAE的方法,而且也没有做链接预测任务,但新增了图分类任务
不足和创新点
- 把对比学习的对齐正样本与生成式学习的节点级别的重建统一了 起来,从理论上建立了对比学习和生成式学习的联系
- 在上一条的基础上,从对比学习角度的对齐性和均匀性(又叫统一性)角度分析了现有GraphMAE的不好
- 对齐性:说GraphMAE的对齐性不好(因为理论证明了对比学习的对齐正样本就是节点级重建),不仅取决于模型本身能力,还取决于掩码策略-> 即随机掩码不好
- 均匀性:仍会出现部分维度坍塌(即在嵌入空间中好几个节点的嵌入缩成一个值了)
创新点:
- 针对上述问题:提出了对抗掩码(用来生成难样本)和由易到难得训练策略(用来控制随机掩码和对抗掩码的比重)以及显示均匀正则化器
问题和细节
- 为什么他论文中的MaskGAE的准确度和MaskGAE论文中的准确度不一样?
- 文中提到“. We speculate that the reason may be that generative methods focus more on context-level information, while node-level and graph-level information are also important on these datasets.“没有看懂,上文刚刚说节点级和上下文有联系,又说节点级和图级也很重要
- 细节:均匀正则化损失是在随机掩码上计算的,因为其目的是让所有的样本都减少维度塌陷的影响
- 实验过程中也是以提问的形式展开,而且介绍的很简略