图神经网络:从池化到卷积的全面解析
1. 链路预测与熵正则化
在图神经网络中,链路预测损失和熵正则化是两个重要的概念。链路预测损失的计算公式如下:
[
L_{lp} = - \cdot \text{SoftMax}(X)^T \text{SoftMax}(S) \cdot A_F
]
熵正则化的计算公式为:
[
L_{lp} = \frac{1}{N} \sum_{n=1}^{N} H(s_n)
]
2. 池化操作
2.1 MinCut 池化
MinCut 池化操作可以根据聚类分配 (S) 聚合节点嵌入 (X),并生成粗化的邻接矩阵 (A’)。具体公式如下:
[
X’ = \text{SoftMax}(S)^T X
]
[
A’ = \text{SoftMax}(S)^T A \text{SoftMax}(X)
]
为了优化 MinCut 池化算子的图滤波器和 SoftMax 层,使用了两个辅助目标:
- MinCut 损失:
[
L_c = \frac{\text{Tr}(S^T A S)}{\text{Tr}(S^T D S)}
]
其中 (D) 表示度矩阵。
- 正交性损失:
[
L_o = \left| S^T S - \frac{1}{C} I \right|_F
]
其中 (C) 是聚类的数量,(|\cdot|_F) 表示 Frobenius 范数。
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



