- 博客(7)
- 收藏
- 关注
原创 readout是什么鬼?
例如,在需要关注图中重要节点的任务中,基于注意力的readout可能更为合适,而在需要快速处理大规模数据的情况下,简单的Sum或Mean Readout可能更有效。readout与embedding是对应的,embed ing解决的是图神经上游的问题(如何将图表示成节点和边),那么readout解决的问题是将节点级特征聚合成图级特征。• 优点:能够为每个节点分配不同的权重,从而关注图中更重要的部分。• 优点:能够捕捉到图中最重要的特征,因为它选择节点特征的最大值。• 缺点:可能会忽略一些较小但重要的特征。
2025-01-09 10:37:25
783
原创 不变性GNNs的几何引入方式
角向基函数能够提供关于原子如何在空间中相对于其他原子排列的综合视图,这对于表征原子间的相互作用非常有用,因为这些相互作用通常取决于它们之间的距离和它们相对于彼此的方向。几何图结构方面的工作:GemNet使用径向基函数(RBF)和复合基函数(Continuous Filter,CBF)来编码原子间的距离和角度信息。希望这些信息对您的研究有所帮助。几何图结构方面的工作:SchNet直接利用原子位置(通过它们的三维坐标表示)计算原子对之间的距离,并基于这些距离通过径向模型计算范围,动态生成卷积核的权重值。
2024-12-31 14:52:26
890
原创 图存储结构:邻接矩阵等
这些存储结构的选择依赖于具体的应用场景和图的特性,如图的稠密程度、图的大小、以及所需的操作类型。4.拉普拉斯矩阵(Laplacian Matrix)定义:拉普拉斯矩阵是度矩阵与邻接矩阵之差,即\(L=D-A\),其中\(L\)是拉普拉斯矩阵,\(D\)是度矩阵,\(A\)是邻接矩阵。3.度矩阵(Degree Matrix)定义:度矩阵是一个对角矩阵,其中对角线上的元素表示对应顶点的度数(即与该顶点相连的边的数量)。应用场景:在需要快速获取顶点度数信息的场景中使用,例如在图的谱理论分析中。
2024-12-29 14:39:53
570
原创 残差链接。
随着深度学习技术的发展,未来可能会有更多创新的残差连接类型出现,以解决特定的问题和挑战。• DenseNet通过将每一层与前面所有层连接起来,进一步加强了特征的重用和网络的参数效率。• 缺点:作为一种新方法,可能需要更多的实验来验证其在不同任务中的有效性和稳定性。• 优点:提供了更灵活的连接方式,可以动态调整层之间的连接强度。• 优点:提高了特征利用效率,减少了参数数量,增强了特征传递。• 优点:注意力机制提高了模型对重要特征的关注度,提升了性能。• 缺点:随着网络深度的增加,计算量和内存消耗也会增加。
2024-12-29 14:39:22
464
原创 从one hot编码到graph embed ing(deepwalk LINE SDNE node2vec truct2vec Graph Factorization HOPE)
• 论文《GraphPath一个基于通路相互作用网络的具有可解释性的图注意力模型用于分子分层》展示了如何通过图嵌入技术捕捉分子和生物通路水平上的特征,并通过可视化嵌入表示来解释模型的预测过程,证明了图嵌入的可解释性。• 综述《大规模图神经网络研究综述》涵盖了图神经网络的多个方面,包括图嵌入技术,强调了图嵌入在材料信息学中的重要性,这些技术有助于捕捉材料的结构特征,为GNN的可解释性提供了支持。• 在图结构数据中,节点之间的关系是动态变化的,One-hot编码无法捕捉这种动态变化和复杂的图结构关系。
2024-12-28 15:50:32
841
原创 学习图神经网络之前为什么要掌握图论基本概念
在图神经网络的特征工程中,度中心性可以作为节点特征的一部分,帮助模型识别和利用这些关键节点。强连通图、弱连通图、度和度中心性是图论中的基本概念,它们在图神经网络(Graph Neural Networks,GNNs)的构建和特征工程中扮演着重要的角色。在图神经网络中,节点的度可以影响其特征的聚合方式,因为度较高的节点可能会在特征聚合过程中对邻居节点产生更大的影响。• 特征工程:度和度中心性可以作为节点的附加特征,提供关于节点在图中位置和作用的额外信息,这对于某些任务(如节点分类、图分类)可能非常有用。
2024-12-28 12:59:23
433
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅