Structural Optimization Makes Graph Classification Simpler and Better
About This Paper
Junran Wu, Jianhao Li, Yicheng Pan, Ke Xu
State Key Lab of Software Development Environment, Beihang University
http://arxiv.org/abs/2109.02027
Preliminary
我们要做的是 图分类任务 (Graph Classification).
主要有两种范式:核方法以及神经网络方法。
针对这两种范式,作者提出了两种新的算法:
核方法:WL-ET kernel, 对标之前的 WL subtree kernel
神经网络方法:ETL, 对标之前的 GNN
ET=Encoding Tree, WL=Weisfeiler-Lehman, ETL=Encoding Tree Learning
Structural Optimization
在进行 WL-ET kernel 的计算以及 ETL 之前,首先得有 ET, 即 Encoding Tree.
在介绍 ET 前,先介绍结构熵。
给定 Graph G G G, 我们可以找到它的一个划分,划分的每个元素都是一棵 Tree,基于 Tree 可以计算一个熵值:结构熵。
关于划分以及结构熵,可以参考 My Blog.
对于图 G = ( V , E , w ) G=(V,E,w) G=(V,E,w) , 它的一棵 Tree (记作 T \mathcal{T} T) 的结构熵为:
H T ( G ) = − ∑ α ∈ T , α ≠ λ g α vol ( V ) log vol ( α ) vol ( α − ) \mathcal{H}^{\mathcal{T}}(G)=-\sum_{\alpha \in \mathcal{T}, \alpha \neq \lambda} \frac{g_{\alpha}}{\operatorname{vol}(V)} \log \frac{\operatorname{vol}(\alpha)}{\operatorname{vol}\left(\alpha^{-}\right)} HT(G)=−∑α∈T,α=λvol(V)gαlogvol(α−)vol(α)
其中, α ∈ T \alpha \in \mathcal{T} α∈T 并且 α ≠ λ \alpha \neq \lambda α<