原文链接:https://arxiv.org/pdf/1906.03750.pdf
1 Abstract and Introduction
之前对图神经网络的攻击都是通过添加或删除一些边来产生扰动,即使被修改的边数量很少,也可能会被注意到。本文提出一个图的重连线(rewiring)操作,它对图的影响比添加/删除边的方式更不明显。然后,使用增强学习基于所提出的重接线操作来学习攻击策略。
为了保证被攻击的图与原始图之间的差异“不明显”,攻击算法可以采取的动作(添加/删除边)的数量通常受到预算(budget)的限制。然而,即使这个预算很小,添加或删除边仍然可以对图结构做出“显著”的改变。例如,很明显,许多重要的图性质是基于图的拉普拉斯矩阵的特征值和特征向量;而增加或删除一条边可以使图的特征值/特征向量发生显著的变化。在本工作中,提出了一种基于图 rewiring 的新操作。一次 rewiring 操作涉及三个节点,删除
和
之间的边,增加
和
之间的边。在本文设置中,
限制在
的 two-hop 邻域。显然,本文提出的 rewiring 操作保留了图的一些基本属性,如节点数、边数、图的总度等,这是添加和删除边等操作所不能的。此外,本文提出的 rewiring 操作对一些基于图拉普拉斯的重要措施(如代数连通性(图拉普拉斯的第二小特征值。这个特征值大于0当且仅当该图是连通图。这是一个简单的推论,因为拉普拉斯矩阵的特征值0的重数就是图的连通分支的个数。这个值的大小反映了整个图的连通程度。它可以用于分析网络的稳定性与可同步性。引自维基百科))的影响比增加/删除边的方式更小。本文的目标是通过执行图分类任务的 rewiring 操作来构造对抗样例。更具体地说,将对给定图应用一系列 rewiring 操作的过程视为离散的马尔可夫决策过程(MDP),并使用增强学习(Reinforcement Learning)来学习如何做出这些决策。本文证明了所提算法在真实世界图上的有效性,并进一步分析了图结构中的对抗性变化如何影响由图神经网络模型学习到的图嵌入和输出标签。
2 Background
介绍一些所需要的符号:
图,节点集
,边集
。边描述了节点间的关系,可以用邻接矩阵表示
。
表示节点
和
是相连的,0则表示不相连。图中的每个节点都有一些与之相关的特征。这些特征可以用矩阵
表示,其中 X 的第 i 行表示节点
的特征,d 是特征的维度。因此,带属性的图可表示为
。
2.1 Graph Classification
在图分类设置中,给定图集。每个图
都对应一个标签
。任务是使用给定的图集构建一个好的分类器,这样当新的看不见的图被输入时,它就可以做出正确的预测。用 θ 参数化的图分类器可表示为
,其中
表示对图
进行预测的标签。分类器
的参数 θ 可以通过优化问题
学得,其中
用来表示预测标签和真实标签的差值。交叉熵是
常用的度量。
2.2 Graph Convolution Networks
本文中将一个图卷积层的 GCN 框架表示为
其中 表示第 j 层的输出,