Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning

本文探讨了图卷积网络(GCN)在节点分类任务中的局限性,如过度平滑和局部性问题。通过结合随机游走和半监督学习方法,如self-training和co-training,提出了解决方案。实验表明,这些方法在少量标签情况下能有效传播标签信息,提高模型性能。尽管如此,文章也指出GCN的动态图更新和边权重调整是未来研究的方向。

 

题目与摘要

本文针对什么任务?任务简要介绍下。

针对于节点分类任务

本文发现了什么问题?该文大体是怎么解决的?解决得如何?

传统的GCN的层数不能过多,过多会引起过渡平滑,以及卷积的局部性当标签比较少时,不能将标签传遍全图。

解释下题目。题目起得如何?能概括内容并吸引人吗?

简单明了

介绍

这个任务以往是如何解决的?作者沿着哪条路径继续研究的?为什么?

作者的论文中以往没人解决,所以作者沿着random walk突破GCN的局部特性

目前工作存在什么问题?为什么?你觉得可能还存在什么其他问题?为什么?

1、GCN层数受限,因为拉普拉斯平滑会使其与周围特征区分不明显,层数少的时候有利于分类,层数过多,所有的点都是一样的了。

2、GCN的局部性,当标签过少时,标签传播不到整张图,会降低性能

我:1、Graph的边是固定不变的,如果一开始边的确定就是错误的,那么没有改正机会(有人已经解决了)

2、GCN容易被平滑与CNN比怀疑因为GCN的复杂度比较高,同时CNN的参数少。

3对于距离较远的点如何建立二者之间的联系

感觉很多都在动态图的范围之内了

该文准备如何解决这个问题?为什么可以这样解决?你觉得该文解决这个问题的方法如何?为什么?你觉得可以如何/或更好的解决这个问题?为什么?

本文使用random walk 与GCN一起训练,并进行self-training或者co-training,不需要使用验证集,只要训练集的点到达一定数量就认为全图都被传播遍了。

因为GCN主要受限于局部卷积,所以使用randim walk弥补这一短板

因为标签比较少,不能传播至全图,所以使用self-training co-trainning 在训练集中添加数据。增加点的数量,有利于传播至全图,当训练集点的数量到达一定数量,默认为整张图都被传播到标签了。

我觉得我们应该学会创建边,目前边的权重不进行

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值