
在社交网络分析、药物分子设计、自动驾驶等领域,数据的关联性往往比单一实体更具价值。传统机器学习模型(如CNN、RNN)擅长处理欧几里得结构数据(如图像、文本),却难以捕捉非结构化数据中的复杂关系。图神经网络(Graph Neural Networks, GNN)通过建模节点与边的关系,突破了这一限制,成为处理图数据的核心工具。
一、技术核心:从节点到关系的建模革命
图神经网络的核心在于邻域聚合与消息传递机制,通过迭代更新节点特征实现关系推理:
1. 图卷积网络(GCN)
作为GNN的奠基性工作,GCN通过邻接矩阵与节点特征的卷积操作,将局部结构信息传播至全局。其公式为:
\mathbf{H}^{(l+1)} = \sigma \left( \mathbf{\hat{D}}^{-1/2} \mathbf{\hat{A}} \mathbf{\hat{D}}^{-1/2} \mathbf{H}^{(l)} \mathbf{W}^{(l)} \right)
其中,\mathbf{\hat{A}} 是带自环的邻接矩阵,\mathbf{\hat{D}} 为度矩阵,\mathbf{W}^{(l)} 是可学习参数。GCN在半监督节点分类任务中表现优异,如在Cora数据集上准确率达81.5%。
2. 图注意力网络(GAT)
GAT引入注意力机制,动态分配邻居节点的权重:
\alpha_{i,j} = \text{softmax}_i \left( \text{LeakyReLU} \left( \mathbf{a}^T \left[ \mathbf{W} \mathbf{h}_i \, \Vert \, \mathbf{W} \mathbf{h}_j \right] \right)

最低0.47元/天 解锁文章
1438

被折叠的 条评论
为什么被折叠?



