- 博客(6)
- 收藏
- 关注
原创 BrainGNN: Interpretable Brain Graph Neural Network for fMRI Analysis
为了解哪些脑区与特定的神经疾病或认知刺激相关,一直是神经影像学研究的一个重要领域。作者提出了 BrainGNN,这是一种图神经网络(GNN)框架,用于分析功能磁共振图像(fMRI)并发现神经生物标志物。① 考虑到脑图的特殊性质,我们设计了新颖的感兴趣区域感知图卷积(Ra-GConv)层,该层利用了功能磁共振图像的拓扑和功能信息。② 受医学图像分析中对透明度需求的启发,我们的 BrainGNN 包含感兴趣区域选择池化层(R-pool)
2025-02-01 01:16:01
1044
原创 《BrainGB: A Benchmark for Brain Network Analysis With Graph Neural Networks》
利用结构或功能连接性来绘制人类大脑的连接组已成为神经影像学分析中最普遍的范式之一。最近,源于几何深度学习的图神经网络(GNNs)因其在建模复杂网络数据方面已确立的强大能力而引起了广泛关注。尽管它们在许多领域表现出色,但对于如何设计有效的用于脑网络分析的 GNNs,尚未有系统的研究。为了弥补这一差距,作者提出了 BrainGB,这是一个用于图神经网络脑网络分析的基准。(1)总结了用于功能和结构神经影像学模态的脑网络构建管道;(神经影像预处理方式)(2)模块化了 GNN 设计的实现。
2025-01-13 19:05:58
792
原创 NeurIPS 2021《Rethinking Graph Transformers with Spectral Attention》
近年来,Transformer 架构在序列处理方面取得了很大的成功,但由于难以正确定义位置,其在其他数据结构(如:图数据)上的应用仍然受限。因此,作者提出了光谱注意力网络(SAN)它使用一种可学习的位置编码(LPE),这种编码能够利用完整的拉普拉斯频谱来学习给定图中每个节点的位置。然后,这种 LPE 被添加到图的节点特征中,并传递给一个全连接的 Transformer。通过利用拉普拉斯的全频谱,我们的模型在理论上能够很好地区分图,并且能够更好地从它们的共振中检测出相似的子结构。
2025-01-05 12:18:25
731
原创 《Brain Network Transformer》
本文研究用于脑网络分析的基于 Transformer 的模型。受数据独特属性的驱动,文章将脑网络建模为具有固定大小和顺序的节点图,这使作者能够(1)使用连接配置文件作为节点特征来提供自然且低成本的位置信息(这里将大脑功能连接矩阵作为节点特征),以及(2)通过跨个体的高效注意力权重学习 ROIs 之间的成对连接强度,这些对下游分析任务具有预测性。此外,文章还提出了一种基于自监督软聚类和正交投影的正交聚类读出(ORTHONORMAL CLUSTERING READOUT)操作。
2024-12-19 01:32:30
1112
原创 《Brain-JEPA: Brain Dynamics Foundation Model with Gradient Positioning and Spatiotemporal Masking》
Brain - JEPA,一个基于联合嵌入预测架构(JEPA)的脑动力学基础模型。这个开创性的模型通过微调在人口统计预测、疾病诊断 / 预后和特征预测方面达到了最先进的性能。此外,它在现成评估(例如线性探测)中表现出色,并且在不同种族群体中表现出卓越的泛化能力,显著超越了之前用于大脑活动的大型模型。脑梯度定位(Brain Gradient Positioning)和时空掩蔽(Spatitemporal Masking)。①脑梯度定位。
2024-12-14 00:36:12
819
原创 最优传输——《Prototypical Partial Optimal Transport for Universal Domain Adaptation》
① 在通用域自适应(UniDA)中,我们有带标签的源数据和无标签的目标数据。② 通用域自适应的目标是使用来自源类别集合的标签标记目标样本,或者将其判别为 “未知” 样本。我们将源域类别的数量记为。③ 我们的深度识别模型由两个模块组成,包括一个将输入映射到特征的特征提取器,以及一个路分类头。⑤ 在特征空间中的源和目标经验分布分别被定义为和,其中。稍微滥用一下符号,我们将数据质量向量记为和,并且在本文中我们设定。⑥ 此外,成本矩阵的元素被定义为,其中是距离。
2024-12-07 22:20:18
1147
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人