【论文简读】Diffusion Kernel Attention Network for Brain Disorder Classification用于脑疾病分类的扩散核注意力网络

本文提出了一种名为Diffusion Kernel Attention Network的新型深度学习模型,用于功能性脑网络的建模和脑疾病分类。通过内核注意力模块和扩散过程,解决了传统Transformer在小样本和间接连接交互上的局限,提高了ADHD和阿尔茨海默病分类的准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

期刊:MIA 2022 early accept

作者:Jianjia Zhang, Luping Zhou, Lei Wang, Mengting Liu and Dinggang Shen

摘要

【背景】

构建和分析功能性脑网络(FBN)已成为一种很有前途的脑疾病分类方法,由于过程中子任务之间缺乏交互和适应性,传统的连续构建和分析过程会限制性能。

Transformer 在各种任务中表现出卓越的性能,这归功于其在复杂特征关系建模方面的有效注意力机制。

【本文工作】

在本文中,我们首次开发了 Transformer,用于集成 FBN 建模、分析和脑疾病分类与 rs-fMRI 数据,提出了一个扩散内核注意网络来解决特定挑战

  • 具体来说,直接应用 Transformer 不一定能在此任务中获得最佳性能,因为它在注意力模块中的广泛参数与通常可用的有限训练样本相比。针对这个问题,我们建议使用内核注意力来替换 Transformer 中原来的点积注意力模块。这显着减少了要训练的参数数量,从而缓解了小样本问题,同时引入了非线性注意力机制来模拟复杂的功能连接
  • FBN 应用的 Transformer 的另一个限制是它只考虑直接连接的大脑区域之间的成对交互,而忽略了重要的间接连接。所以,我们进一步探索内核注意力的扩散过程,以纳入间接连接的大脑区域之间更广泛的相互作用。

【实验结果】

对用于 ADHD 分类的 ADHD-200 数据集和用于阿尔茨海默病分类的 ADNI 数据集进行了广泛的实验研究,结果表明所提出的方法优于竞争方法。

Intro

功能核磁可以用于疾病分类

  • 传统方法先通过识别大脑节点并推断它们之间的联系来构建典型的FBN,然后可以从FBN中提取各种特征进而进行分类。存在缺点:1 由于两个步骤之间缺乏通信,其性能可能不是最佳的;2 传统的FBN构建和分析方法会限制其适用性。
  • 文献[27][28]用神经网络方法进行分类,也存在一些不足。
  • transformer的特性以及不足,结合问题进行分析。

【本文工作】

本文提出了一种扩散核注意网络用于脑疾病分类,该网络以变压器的编码器网络为骨干。

第一个设计点:核函数代替注意力

提出了一种内核注意机制来取代原有的注意模块。建议在注意模块中使用一个核函数来代替原来的点积操作,从而形成一种内核注意机制,然后计算该空间中数据对之间的内积来实现特征相似性度量。自我注意的计算需要更少的参数,这些参数可以在模型训练过程中自动学习。这不仅大大减少了要优化的参数数量,缓解了小样本问题而且引入了非线性注意机制来模拟大脑区域之间的复杂交互。我们的工作是从减少FBN建模和分析的参数数量的角度出发,

### 扩散模型中的注意力机制详解 在扩散模型中,注意力机制通过引入跨模态交互来增强模型的表现力。具体来说,在处理来自不同模ality的数据时,采用特定于域的编码器$\tau_\theta$将输入数据映射到中间表示空间$\tau_\theta(y) \in \mathbb{R}^{M \times d_\tau}$[^3]。 此过程涉及两个主要组件: #### 1. 域特异性编码器 该编码器负责接收多源异构信息作为输入,并将其转换成统一维度下的特征向量形式。这一步骤对于确保后续计算的有效性和一致性至关重要。 ```python import torch.nn as nn class DomainSpecificEncoder(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(DomainSpecificEncoder, self).__init__() self.fc = nn.Linear(input_dim, hidden_dim) self.out_layer = nn.Linear(hidden_dim, output_dim) def forward(self, x): h = torch.relu(self.fc(x)) return self.out_layer(h) ``` #### 2. 跨注意层实现 一旦获得了合适的嵌入表达,则可以通过交叉注意力机制进一步加强这些表征之间的关联度。公式定义如下所示: $$\text{Attention}(Q, K, V)=\text{softmax}\left(\frac{QK^\top}{\sqrt{d}}\right)V,$$ 其中$d$代表键(Key)矩阵列数;而查询(Query),键(Key), 和值(Value)分别对应着不同的上下文片段或是时间步上的隐藏状态。 这种设计允许网络自动学习哪些部分应该被赋予更多权重,从而更好地捕捉全局依赖关系以及局部细节特性。这对于诸如图像生成、异常检测等任务尤为重要,因为它们往往需要综合考虑多个因素的影响[^1]。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值