
PaperReading
文章平均质量分 94
Anonymous-
。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
WWW2020《Adversarial Attacks on Graph Neural Networks via Node Injections:分层增强学习方法》(NIPA)论文详解
论文链接:https://faculty.ist.psu.edu/vhonavar/Papers/www20.pdfpoisoning attack1 Abstract and Introduction本文考虑了一种针对图数据的节点注入中毒攻击(poisoning attack)的形式。对节点注入攻击的关键步骤进行建模,例如,通过马尔可夫决策过程(MDP)在注入的对抗节点和其他节点之间建立链接、选择注入节点的标签等。本文提出了一种针对节点注入中毒攻击(Node Injection Poisoni原创 2022-04-28 21:54:53 · 1888 阅读 · 1 评论 -
2022 《Black-box Node Injection Attack for Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2202.09389.pdfevasion attack1 Abstract & Introduction本文将节点注入攻击建模为一个马尔可夫决策过程,并提出了一种基于 advantage actor critic 的图增强学习框架 GA2C,以生成注入节点的真实特征,并将它们无缝地合并到具有相同拓扑特征的原始图中。...原创 2022-04-17 21:48:48 · 2205 阅读 · 2 评论 -
KDD2021《TDGIA: Effective Injection Attacks on Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2106.06663.pdfevasion attack1&2 Abstract & Introduction本文作者分析了图注入攻击(Graph Injection Attack,GIA)设置下的 GNN 网络的拓扑脆弱性(topological vulnerability),在此基础上提出了拓扑缺陷图注入攻击(Topological Defective Graph Injection Attack, TDGIA)以进行有效原创 2022-04-09 21:09:43 · 1191 阅读 · 0 评论 -
ICLR2022《Understanding and Improving Graph Injection Attack by Promoting Unnoticeability》
原文链接:https://arxiv.org/pdf/2202.08057.pdfevasion attack1 Abstract and Introduction现有的图对抗攻击主要有两种,图注入攻击(Graph Injection Attack,GIA)和图修改攻击(Graph Modification Attack,GMA);前者是一种更实际的攻击场景,它通过往图中注入恶意节点来实现攻击,后者通过修改原图中的节点或边来实现攻击。虽然 GIA 取得了比较令人满意的结果,但是我们并不知道这种.原创 2022-04-03 21:19:21 · 1797 阅读 · 3 评论 -
CIKM2021《Single Node Injection Attack against Graph Neural Networks》论文详解
原文链接:https://arxiv.org/pdf/2108.13049.pdfevasion attack1 Abstract and Introduction图神经网络节点注入攻击是一种新兴而实用的攻击场景,攻击者通过注入恶意节点而不是修改原始节点或边来影响图神经网络的性能。本文关注的是一个非常有限的单节点注入 evasion 攻击场景,即攻击者在测试阶段只被允许注入一个单节点来伤害GNN的性能。网络结构的离散性以及网络结构与节点特征之间的耦合效应给这种极其有限的场景带来了极大的挑战。本文原创 2022-03-28 20:51:00 · 4129 阅读 · 3 评论 -
KDD2021《Attacking Graph Convolutional Networks via Rewiring》论文详解
原文链接:https://arxiv.org/pdf/1906.03750.pdf之前对图神经网络的攻击都是通过添加或删除一些边来产生扰动,即使被修改的边数量很少,也可能会被注意到。本文提出一个图的重接线(rewiring)操作,它对图的影响比添加/删除边的方式更不明显。然后,使用增强学习基于所提出的重接线操作来学习攻击策略。为了保证被攻击图与原始图之间的差异“不明显”,攻击算法可以采取的动作(添加/删除边)的数量通常受到预算的限制。然而,即使这个预算很小,添加或删除边仍然可以对图结构做出“显著原创 2022-03-27 21:07:15 · 1580 阅读 · 0 评论 -
KDD2018《Adversarial Attacks on Neural Networks for Graph Data》 论文详解
论文链接:https://arxiv.org/pdf/1805.07984.pdfAbstract本文介绍了第一个在属性图上进行对抗攻击的研究,特别关注利用图卷积的思想模型。除了在测试阶段进行攻击,本文进行了更具挑战的poisoning attack(聚焦于机器学习模型的训练阶段)类别。在考虑实例间依赖关系的情况下,针对节点特征和图结构进行对抗扰动(adversarial perturbation)。通过保证重要的数据特征保证扰动是不可见的(unnoticeable)。为了解决底层的离散域(disc原创 2022-03-26 10:35:26 · 4246 阅读 · 0 评论 -
Power law and Power law distribution(幂律和幂律分布)
原文:《Power-law distribution in empirical data》1. Introduction有些分布可以很好的描述,比如成年男性的身高,某物体的重量等,它们可以用典型值可平均值来进行描述。但并不是所有的分布都服从该模型。在这些分布中 power law 多年来因其数学性质(有时会导致令人惊讶的物理结果)以及在各种自然和人为现象中出现而受到特别关注。例如,城市人口、地震强度和停电的规模都被认为具有幂律分布。诸如此类的数量不能很好地用它们的典型值或平均值来描述。从数学上讲原创 2022-03-24 18:54:49 · 8586 阅读 · 0 评论