GNNs:从概率图模型到图同构测试的理论探索
1. GNN与概率图模型
在统计学中,分布的希尔伯特空间嵌入是一个非常丰富的研究领域。在与图神经网络(GNN)的关联中,我们可以将分布 $p(x)$ 表示为某个特征空间中的嵌入 $\mu_x$。我们将利用这一概念来推动GNN消息传递算法,以学习表示节点潜在变量分布 $p(z_v)$ 的嵌入。
1.1 图作为概率图模型
从概率的角度看待图数据,我们可以假设给定的图结构定义了不同节点之间的依赖关系。具体来说,图 $G = (V, E)$ 定义了一个马尔可夫随机场:
[p({x_v}, {z_v}) \propto \prod_{v \in V} \hat(x_v, z_v) \prod_{(u, v) \in E} \varPhi(z_u, z_v)]
其中,$\hat$ 和 $\varPhi$ 是非负的势函数,${x_v}$ 是所有节点特征的集合。这个公式表明,节点特征和节点嵌入的分布 $p({x_v}, {z_v})$ 根据图结构进行分解。直观地说,$\hat(x_v, z_v)$ 表示在给定节点潜在嵌入 $z_v$ 的情况下,节点特征向量 $x_v$ 的可能性,而 $\varPhi$ 控制着相连节点之间的依赖关系。
在标准的概率建模中,$\hat$ 和 $\varPhi$ 通常基于领域知识定义为参数化函数,并且通常假设这些函数来自指数族以确保可处理性。但在这里,我们不关心 $\hat$ 和 $\varPhi$ 的具体形式,而是通过利用希尔伯特空间嵌入的思想来隐式学习这些函数。
1.2 嵌入平均场推理
给定上述马尔可夫随机场,我们的目标是推断所有节
超级会员免费看
订阅专栏 解锁全文
1074

被折叠的 条评论
为什么被折叠?



