Continuous graph neural network(CGNN)
解释我们的模型学习了什么样的表示,以及为什么它没有遭受GNN
中常见的过度平滑问题。
Oono和Suzuki(2020)
证明了更深的GCN
指数地失去了表达能力,因为在极限情况下,当层数达到无穷大时,节点表示被投影到拉普拉斯算子的零空间上,这意味着在同一连通分量中具有相同度的两个节点将具有相同的表示。
Graph Neural Networks Exponentially Lose Expressive Power for Node Classification
本文从残差连接思想,进而对动态系统进行从离散到连续的转化,给出了证明。从基于扩散的方法激励我们的ODE,并从理论上证明我们的方法如何有助于解决节点之间的过度平滑以及长距离连接。
对象&#x