图神经网络的应用、优化与理论基础
1. 图神经网络的应用与损失函数
图神经网络(GNN)在不同场景下有着广泛应用,同时也对应着不同的损失函数。
- 半监督与归纳式节点分类 :半监督适用于在传导式测试节点上测试GNN的情况,此时GNN在训练时能观察到测试节点(但不知其标签)。而归纳式节点分类则是训练时完全看不到测试节点及其所有关联边,例如在引文网络的一个子图上训练GNN,然后在完全不相交的子图上进行测试。
- 图分类 :图级别的分类应用是常见的基准任务。过去,核方法在图分类中很流行,一些早期的图分类基准任务就源自核方法相关文献。这类任务常使用类似于式(6.1)的softmax分类损失,不同的是,损失是基于一组有标签训练图 $T = {G_1, \cdots, G_n}$ 的图级嵌入 $z_{G_i}$ 计算的。近年来,GNN在涉及图数据的回归任务中也取得了成功,特别是从分子的图表示预测分子性质(如溶解度)的任务,通常采用如下形式的平方误差损失:
[
L = \sum_{G_i \in T} | MLP(z_{G_i}) - y_{G_i} | 2^2
]
其中,$MLP$ 是具有单变量输出的全连接神经网络,$y {G_i} \in \mathbb{R}$ 是训练图 $G_i$ 的目标值。
- 关系预测 :虽然分类任务是GNN最常见的应用,但GNN也用于关系预测任务,如推荐系统和知识图谱补全。在这些应用中,通常采用第3章和第4章介绍的成对节点嵌入损失函数,原则上,GNN可以与这些章节讨论的任何成对损失函数结合,用GNN的
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



