Towards Deeper Graph Neural Networks

针对GCN模型中层数加深导致性能下降的问题,本文提出了一种解决方案。通过将模型中的representation transformation与propagation分离,可以有效提升深层模型的表现。此外,还引入了自适应调整机制来确定各层权重。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题:

  • 一层的GCN layer只考虑直接邻域,加深模型层数可获得更大的感受野receptive fields,但性能却会变坏
  • 以前认为是over-smoothing问题导致的。

本文

  • 增加层性能变坏是因为GCN模型里两个关键部分——representation transformation和propagation——的纠缠导致的。
  • 分离这两个部分可以解决该问题。

模型:

  1. 进行特征变换,
  2. 堆叠层,只进行propagaition,不进行特征变换。
  3. adaptive adjustment,因为层数不好确定。用来确定各层的权重。
    在这里插入图片描述
    分离特征变换和信息传导,简化了模型,使得加深模型成为可能。虽然已有相应的工作,但关注点不在如何加深模型层数上。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值