题目与摘要
本文针对什么任务?任务简要介绍下。
针对于节点分类任务
本文发现了什么问题?该文大体是怎么解决的?解决得如何?
传统的GCN的层数不能过多,过多会引起过渡平滑,以及卷积的局部性当标签比较少时,不能将标签传遍全图。
解释下题目。题目起得如何?能概括内容并吸引人吗?
简单明了
介绍
这个任务以往是如何解决的?作者沿着哪条路径继续研究的?为什么?
作者的论文中以往没人解决,所以作者沿着random walk突破GCN的局部特性
目前工作存在什么问题?为什么?你觉得可能还存在什么其他问题?为什么?
1、GCN层数受限,因为拉普拉斯平滑会使其与周围特征区分不明显,层数少的时候有利于分类,层数过多,所有的点都是一样的了。
2、GCN的局部性,当标签过少时,标签传播不到整张图,会降低性能
我:1、Graph的边是固定不变的,如果一开始边的确定就是错误的,那么没有改正机会(有人已经解决了)
2、GCN容易被平滑与CNN比怀疑因为GCN的复杂度比较高,同时CNN的参数少。
3对于距离较远的点如何建立二者之间的联系
感觉很多都在动态图的范围之内了
该文准备如何解决这个问题?为什么可以这样解决?你觉得该文解决这个问题的方法如何?为什么?你觉得可以如何/或更好的解决这个问题?为什么?
本文使用random walk 与GCN一起训练,并进行self-training或者co-training,不需要使用验证集,只要训练集的点到达一定数量就认为全图都被传播遍了。
因为GCN主要受限于局部卷积,所以使用randim walk弥补这一短板
因为标签比较少,不能传播至全图,所以使用self-training co-trainning 在训练集中添加数据。增加点的数量,有利于传播至全图,当训练集点的数量到达一定数量,默认为整张图都被传播到标签了。
我觉得我们应该学会创建边,目前边的权重不进行