graph-attention-network

本文探讨了图相关的算法中节点embedding的迭代更新过程,并详细解析了图注意力网络(GAT)的工作原理。通过建立相邻边的注意力机制,GAT能够更有效地捕捉节点间的复杂关系。文章还介绍了multi-head机制如何进一步增强图注意力的效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

representation

h=\{\vec{h_1},\vec{h_2}...\vec{h_N}\}, h_i\in R^F

N is the number of Nodes

node feature

neighbourhood+leakrelu->node

\alpha_{ij} =softmax_j(e_{ij})=e_{ij}/\sum_{k\epsilon N_i}e_{ik}

a_{ij}= \frac{exp\(LeakRelu(\vec{\alpha }^t[W_{h_i}||W_{h_j}])\)}{\sum_{k\in N_i}exp\(LeakRelu\(\vec{\alpha^t }[W_{h_i||W_{h_k}}]\)\)}

update

h_{i,}=\sum_{j\in N_j}\alpha _{ij}h_j*W_{h_j}

with head=k

multi-head+neighbourhood->node

h_{i}^{'}=\parallel_{k=1}^K\ \sum_{j\in N_j}\alpha _{ij}^kh_j*W_{h_j}^k

graph相关的算法,都是相邻点的embedding表达,不断的迭代, gat就是 通过建立相邻边的attention,来拟合周边attention,

multihead机制,提升图attention效果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值