AUGMAE阅读

又是看了好几天,别拖延了!!
个人感觉这篇论文的模型性能提升不是很高,而且作为baseline的模型也没有其他论文里多,实验过程直接说按照GraphMAE的方法,而且也没有做链接预测任务,但新增了图分类任务

不足和创新点

  • 把对比学习的对齐正样本与生成式学习的节点级别的重建统一了 起来,从理论上建立了对比学习和生成式学习的联系
  • 在上一条的基础上,从对比学习角度的对齐性和均匀性(又叫统一性)角度分析了现有GraphMAE的不好
    • 对齐性:说GraphMAE的对齐性不好(因为理论证明了对比学习的对齐正样本就是节点级重建),不仅取决于模型本身能力,还取决于掩码策略-> 即随机掩码不好
    • 均匀性:仍会出现部分维度坍塌(即在嵌入空间中好几个节点的嵌入缩成一个值了)

创新点:

  • 针对上述问题:提出了对抗掩码(用来生成难样本)和由易到难得训练策略(用来控制随机掩码和对抗掩码的比重)以及显示均匀正则化器
    在这里插入图片描述

问题和细节

  • 为什么他论文中的MaskGAE的准确度和MaskGAE论文中的准确度不一样?
  • 文中提到“. We speculate that the reason may be that generative methods focus more on context-level information, while node-level and graph-level information are also important on these datasets.“没有看懂,上文刚刚说节点级和上下文有联系,又说节点级和图级也很重要
  • 细节:均匀正则化损失是在随机掩码上计算的,因为其目的是让所有的样本都减少维度塌陷的影响
  • 实验过程中也是以提问的形式展开,而且介绍的很简略
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值