《Graph Representation Learning》笔记 Chapter6

这篇博客探讨了《Graph Representation Learning》中关于图神经网络(GNN)在节点分类和图分类任务的应用。对于节点分类,利用softmax和负对数概率定义损失函数;对于图分类,采用平方误差损失。此外,预训练GNN通过最大化节点和图嵌入间的互信息来优化。博客还讨论了效率问题、节点采样、图级实现、下采样、小批量处理、参数共享和正则化等关键主题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

系列文章
《Graph Representation Learning》笔记 Chapter2
《Graph Representation Learning》笔记 Chapter3
《Graph Representation Learning》笔记 Chapter4
《Graph Representation Learning》笔记 Chapter5

Applications and Loss Functions

GNNs for Node Classification

可以使用 softmax 分类函数和负对数概率来定义损失
L = ∑ u ∈ V t r a i n − l o g ( s o f t m a x ( z u , y u ) ) s o f t m a x ( z u , y u ) = ∑ i = 1 c y u [ i ] e z u T w i ∑ j = 1 c e z u T w j L = \sum_{u ∈ \mathcal{V}_{train}} -log(softmax(z_u, y_u)) \\ softmax(z_u, y_u) = \sum_{i=1}^c y_u[i] \frac{e^{z_u^Tw_i}}{\sum_{j=1}^c e^{z_u^Tw_j}} L=uVtrainlog(softmax(zu,yu))softmax(zu,yu)=i=1cyu[i]j=1cezuTwjezuTwi
其中, c c c 为种类数, y u ∈ Z c y_u ∈ \mathbb{Z}^c yuZc 为 one-hot 向量, w i ∈ R d , i = 1 , . . . , c w_i ∈ \mathbb{R}^d, i = 1, ..., c wiRd,i=1,...,c 为可训练的参数。

GNNs for Graph Classification

平方误差损失如下所示
L = ∑ G i ∈ τ ∥ M L P ( z G i ) − y G i ∥ 2 2 L = \sum_{\mathcal{G}_i ∈ \tau} \| MLP(z_{\mathcal{G}_i}) - y_{\mathcal{G}_i} \|_2^2 L=GiτMLP(zGi)yGi22
其中, τ = G 1 , . . . , G n \tau = {\mathcal{G}_1, ..., \mathcal{G}_n} τ=G1,...,Gn 表示有标签的训练集, M L P MLP MLP 为具有单变量输出的神经网络, y G i ∈ R y_{\mathcal{G}_i} ∈ \mathbb{R} yGiR G i \mathcal{G}_i Gi 的标签。

Pre-training GNNs

有人提出预训练需要最大化节点嵌入 z u z_u zu 和图嵌入 z G z_{\mathcal{G}} zG 之间的互信息,损失函数如下所示
L = − ∑ u ∈ V t r a i n E G l o g ( D ( z u , z G ) ) + γ E G ~ l o g ( 1 − D ( z ~ u , z G ) ) L = -\sum_{u ∈ \mathcal{V}_{train}} \mathbb{E}_{\mathcal{G}} log(D(z_u, z_{\mathcal{G}})) + \gamma \mathbb{E}_{\widetilde{\mathcal{G}}} log(1-D(\widetilde{z}_u, z_{\mathcal{G}})) L=uVtrainEGlog(D(zu,zG))+γEG log(1D(z u,zG))
其中, z u z_u zu 为节点 u u u 基于真实图 G \mathcal{G} G 生成的嵌入, z ~ u \widetilde{z}_u z u 为节点 u u u 基于 corrupted 版本的图 G ~ \widetilde{G} G 生成的嵌入, corrupted 指改变节点特征和邻接矩阵, D D D 表示一个辨别函数,来辨别节点嵌入是否属于 G \mathcal{G} G G ~ \widetilde{\mathcal{G}} G 。直观来看, GNN 需要在预训练中学会区分节点属于真图还是假图。

Efficiency Concerns and Node Sampling

Graph-level Implementations

整图级别的 GNN 表示为
H ( k ) = σ ( A H ( k − 1 ) W n e i g h ( k ) + H ( k − 1 ) W s e l f ( k ) ) H^{(k)} = \sigma(AH^{(k-1)}W_{neigh}^{(k)} + H^{(k-1)}W_{self}^{(k)}) H(k)=σ(AH(k1)Wneigh(k)+H(k1)Wself(k))
其中, H ( t ) H^{(t)} H(t) 为包含第 k k k 层所有节点嵌入的矩阵。这样虽然使得计算变得简便,但会受限于计算机内存。

Subsampling and Mini-Batching

所以,每次可以只训练一部分节点子集。选择的子集内的节点需要与上一批子集内的节点相连,才能保证连接不变。

Parameter Sharing and Regularization

不同层之间的 A G G R E G A T E AGGREGATE AGGREGATE U P D A T E UPDATE UPDATE 函数可以共享参数来防止过拟合,也可以随机移除边缘来防止过拟合。

### 回答1: 图表示学习是一种机器学习技术,旨在将图形数据转换为低维向量表示,以便于计算机进行处理和分析。这种技术可以应用于各种领域,如社交网络分析、生物信息学、推荐系统等。通过图表示学习,可以更好地理解和分析图形数据,从而提高数据处理和应用的效率。 ### 回答2: 图表示学习是一种机器学习的方法,用于学习和提取图结构中的有用信息和特征。图表示学习的目标是将图中的节点和边转化为向量表达,从而实现对图结构的分析和预测。 图表示学习可以应用于各种各样的领域,如社交网络分析、生物信息学、推荐系统等。通过学习图中节点的向量表达,我们可以对节点进行聚类、分类、推荐等任务。同时,图表示学习还可以揭示图结构中的隐藏关系和模式,帮助我们理解和挖掘图中的信息。 图表示学习有多种方法和技术。其中一种常用的方法是基于图的随机游走。通过模拟随机游走的过程,我们可以收集节点的邻居信息,并根据节点的邻居关系来学习节点的向量表达。还有一种常用的方法是基于图的图卷积网络。这种方法利用图结构的局部连接性来学习节点的向量表达,通过多层图卷积网络可以逐步提取节点的更高级别的特征。 图表示学习在图挖掘和数据分析领域具有广泛的应用和研究价值。它可以帮助我们理解和解释复杂的图结构,从而更好地处理和分析图数据。同时,图表示学习还能够应对大规模和高维度的图数据,提高计算效率和准确性。未来,我们可以进一步研究和发展图表示学习的方法和技术,以应对图数据分析的挑战。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值