论文阅读和分析:Masked Label Prediction: Unified Message Passing Model for Semi-Supervised Classification

文章详细介绍了作者对EEG脑电数据的研究,包括数据集介绍、相关论文的阅读与分析,特别是图神经网络在EEG情绪识别中的应用。提出了统一消息传递模型(UniMP),解决了标签泄漏问题,通过在多个半监督分类数据集上的实验,展示其有效性和改进性能。

下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。


数据集
1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED
相关论文阅读分析:
1、EEG-SEED数据集作者的—基线论文阅读和分析
2、图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》
3、EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》
4、论文阅读和分析:Masked Label Prediction: Unified Message Passing Model for Semi-Supervised Classification
5、论文阅读和分析:《DeepGCNs: Can GCNs Go as Deep as CNNs?》
6、论文阅读和分析: “How Attentive are Graph Attention Networks?”
7、论文阅读和分析:Simplifying Graph Convolutional Networks

8、论文阅读和分析:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
9、图神经网络汇总和总结
相关实验和代码实现:
1、用于图神经网络的脑电数据处理实现_图神经网络 脑电
2、使用GCN训练和测试EEG的公开SEED数据集
3、使用GAT训练和测试EEG公开的SEED数据集
4、使用SGC训练和测试SEED数据集
5、使用Transformer训练和测试EEG的公开SEED数据集_eeg transformer
6、使用RGNN训练和测试EEG公开的SEED数据集
辅助学习资料:
1、官网三个简单Graph示例说明三种层次的应用_graph 简单示例
2、PPI数据集示例项目学习图神经网络
3、geometric库的数据处理详解
4、NetworkX的dicts of dicts以及解决Seven Bridges of Königsberg问题
5、geometric源码阅读和分析:MessagePassin类详解和使用
6、cora数据集示例项目学习图神经网络
7、Graph 聚合
8、QM9数据集示例项目学习图神经网络
9、处理图的开源库

提出了一个统一消息传递模型(UniMP)

两个简单但有效的想法:

(a)将节点特征传播与标签相结合;

UniMP在训练和推理阶段同时使用节点特征和标签。标签使用嵌入技术将部分节点标签从一个 one-hot类型标签转换为密集的类向量节点特征。多层Graph Transformer网络将节点特征和标签作为输入,在节点之间进行信息传播。因此,每个节点可以聚合来自其邻居的特征和标签信息。

(b)屏蔽标签预测。

由于将节点标签作为输入,因此将其用于监督训练将导致标签泄漏问题,在推理中表现不佳。为了解决这个问题,提出了一种屏蔽标签预测策略,该策略随机屏蔽一些训练实例的标签,然后预测它们以克服标签泄漏。这种简单而有效的训练方法从BERT中的屏蔽词预测中吸取了教训[Devlin等人,2018],并模拟了将标记信息从图中的标记示例转换为未标记示例的过程。

实验结果:

在开放图基准(OGB)中的三个半监督分类数据集上评估了的UniMP模型,其中的新方法在所有任务中实现了最新的结果,在ogbn产品中获得82.56%的ACC,在ogbn蛋白质中获得86.42%的ROC-AUC,在ogbn-arxiv中获得73.11%的ACC。还对UniMP模型进行了消融研究,以评估统一方法的有效性。此外,对标签传播如何提高模型性能进行了最彻底的分析。

在这里插入图片描述

Graph Neural Networks:

在第 l l l层的特征传播:

在这里插入图片描述

其中 D D D是正则化邻接矩阵,A是邻接矩阵, H l H^l Hl l l l层的特征表示, σ \sigma σ是激活函数, W l W^l Wl l l l层的可学习权重;

Label propagation algorithms

像标签传播算法(LPA)这样的传统算法只利用标签和节点之间的关系来进行预测。LPA假设连接节点之间的标签相似,并在图中迭代传播标签。给定一个初始标签矩阵 Y ( 0 ) ^ \hat{Y^{(0)}} Y(0)^,它由一个one-hot标签指示向量 y i 0 ^ \hat{y_i^{0}} yi0^(用于标记节点)或零向量(用于未标记节点)组成。LPA的简单迭代方程公式如下:

在这里插入图片描述

Combining GNN and LPA

将GNN和LPA结合在社区的半监督分类任务中。APPNP[Klicpera等人,2018]和TPN[Liu等人,2019]建议使用GCN来预测软标签,然后使用个性化Pagerank来传播它们。然而,这些工作仍然只考虑部分节点标签作为监督训练信号。GCN-LPA与的工作最相关,因为它们也将部分节点标签作为输入。然而,他们以更间接的方式结合了GNN和LPA,仅在训练中使用LPA来调整GAT模型的权重边。虽然的UniMP在网络中直接结合GNN和LPA,但在训练和预测中传播节点特征和标签。此外,与GCN-LPA不同,其正则化策略只能用于具有可训练权重边的GNN,如GAT[Velickovi´c´et al.,2017]、GAAN[Zhang et al.,2018],训练策略可以很容易地扩展到各种GNN,例如GCN和GAT,以进一步提高其性能

算法:geometric.nn开源实现

torch_geometric.nn — pytorch_geometric documentation (pytorch-geometric.readthedocs.io)
x i ′ = W 1 x i + ∑ j ∈ N ( i ) α i , j W 2 x j , \mathbf{x}^{\prime}_i = \mathbf{W}_1 \mathbf{x}_i + \sum_{j \in \mathcal{N}(i)} \alpha_{i,j} \mathbf{W}_2 \mathbf{x}_{j}, xi=W1

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

KPer_Yang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值