ICLR2022《Understanding and Improving Graph Injection Attack by Promoting Unnoticeability》

本文探讨了图对抗攻击中的两种主要方法,即图注入攻击(GIA)和图修改攻击(GMA)。尽管GIA在某些情况下效果更优,但其灵活性可能导致对图的同质性分布造成损害,从而易被同质性防御策略所抵消。为了解决这个问题,作者提出了同质不可见性(homophily unnoticeability)的概念,并设计了和谐对抗目标(HAO),以确保GIA在保持同质性的同时进行有效攻击。实验表明,基于HAO的GIA能够突破同质性防御,提高攻击效果。

原文链接:https://arxiv.org/pdf/2202.08057.pdf

evasion attack

1 Abstract and Introduction

现有的图对抗攻击主要有两种,图注入攻击(Graph Injection Attack,GIA)和图修改攻击(Graph Modification Attack,GMA);前者是一种更实际的攻击场景,它通过往图中注入恶意节点来实现攻击,后者通过修改原图中的节点或边来实现攻击。虽然 GIA 取得了比较令人满意的结果,但是我们并不知道这种方法为什么会成功以及这种成功背后存在着什么缺点。为了理解 GIA 的能力,将 GIA 和 GMA 进行比较发现 GIA 成功的原因是由于它具有较高的灵活性,但这种灵活性是以对原图同质性分布(homophily distribution)的损害为代价的,如邻域间的相似性。因此,为了恢复原来的同质性而设计的基于同质性的防御可以很容易地减轻甚至防止 GIA 带来的的威胁。为了缓解这一问题,我们引入了一种新的约束——同质不可见性(homophily unnoticeability),以强制 GIA 保持同质性,并提出了和谐对抗目标(Harmonious Adversarial Objective,HAO)作为实例。大量的实验证明,使用 HAO 的 GIA 能够突破基于同质性的防御,并且明显优于以往的 GIA 攻击。本文的方法可以更可靠地评估 GNNs 的鲁棒性。

GIA 的灵活性使 GIA 能够将 GMA 的扰动映射到特定的 GIA 扰动中,并进一步优化映射的扰动以放大损伤(图1a)。然而,根据没有免费午餐的原则,进一步发现 GIA 的能力是建立在对原图同质性的严重破坏之上的同质性是指节点连接到具有相似特征或标签的节点的趋势,这对现有的大多数 GNNs 的成功都至关重要。由于非鲁棒模型仅通过利用同质性损伤的性质就可以很容易地减轻甚至阻止 GIA 的鲁棒性,因此严重的同质性损伤会使 GIA 评估鲁棒性的有效性失效。

在观察到同质性的破坏之后,可以直接设计一种旨在恢复同质性的防御机制,称之为同质性防御者(homophily defenders)同质性防御者对 GIA 攻击具有较强的鲁棒性。理论上,它们可以有效减少 GIA 造成的危害,使其低于 GMA。根据经验,使用边修剪的同质防御者的简单实现甚至可以恶化最先进的 GIA 攻击(图1b)。忽略对同质性的损害将使 GIA 变得无能为力,进一步限制了其在评估 GNNs 鲁棒性方面的应用。

为了使 GIA 能够有效地评估各种健壮的 GNNs,在开发 GIA 时必须注意保持同质性。为此,引入了一种新的约束——同质不可见性,该约束强制 GIA 保持原始图的同质性,可以作为图对抗学习中不可见约束的补充。为了实例化同质不可见性,我们提出了 GIA 的和谐对抗目标(HAO)(图1c)。具体来说,HAO 通过对攻击过程中的同质性分布偏移进行正则化,引入了一种新颖的同质约束可微实现。这样,对手(adversaries)就不容易被同质防御者识别,同时仍在进行有效的攻击(图1b)。在6个基准上的38个防御模型的广泛实验表明,基于 HAO 的 GIA 可以突破同质性防御者,在所有设置下(包括非目标攻击和目标攻击)均显著优于此前的所有工作。

本文贡献

在一个统一的环境对 GIA 和 GMA 进行了正式的比较,发现 GIA 比 GMA 更有害是由于其具有较高的灵活性(定理1)。

但 GIA 的这种灵活性也会给同质性分布带来巨大的损害,使得 GIA 可以容易地被同质性防御者进行防御(定理2)。

为了缓解这一问题,引入了同质不可见性的概念和一个新颖的目标 HAO 来进行同质不可见攻击(定理3)。

2 Preliminaries

2.1 Graph Neural Networks

考虑一个有节点集和边集的图是邻接矩阵,是节点特征向量。对半监督节点分类任务感兴趣。给定 C 个类别的标签集,通过最小化分类损失(如交叉熵),可以在训练(子)图上训练经 θ 参数化的图神经网络。训练后的可以对测试图中节点的标签进行预测。GNN 通常遵循邻域聚合方案来递归地更新节点表示:

其中是节点 u 邻域的节点集,是节点 u 经过 k 次聚合后的隐层表示,是如 ReLU 的激活函数,是如 MEAN 或 SUM 的聚合函数。

2.2 Graph Adversarial Attack

图对抗攻击的目标是在有限预算(budget)内通过构建图来欺骗在图上训练的 GNN 模型给定受害节点集,图的对抗攻击一般可以表示为:

 

其中通常取为

Graph Modification Attack (GMA). GMA 通过修改原图的图结构和节点特征来生成扰动后的图。GMA 中的约束用来限制的数量,用

### ViLD 开放词汇物体检测研究解析 #### 背景与动机 传统的物体检测模型通常局限于预定义的一组类别,这极大地限制了这些模型的应用范围。随着实际应用场景的需求日益多样化,开发能够识别任意文本描述对象的开放词汇物体检测成为一个重要课题。然而,现有物体检测数据集仅覆盖有限数量的类别,并且扩展此类数据集的成本极高。 为此,研究人员引入了一种名为 **ViLD** 的新方法[^1],旨在利用视觉和语言知识蒸馏技术解决上述挑战。这种方法不仅提高了模型对于未曾见过类别的泛化能力,还显著提升了跨不同数据集的表现效果。 #### 方法概述 ViLD的核心理念在于借助大规模预训练的语言理解模型作为教师网络,指导基于卷积神经网络的学生探测器学习如何关联给定的文字说明与其对应的图像特征表示。具体实现过程如下: - **教师模型的选择**: 使用已经过充分训练并具备强大表征能力的大规模多模态Transformer架构充当教师角色; - **学生模型的设计**: 构建了一个双阶段目标定位框架作为学生端,其中包含了用于生成候选框提议机制以及负责最终分类决策的部分; - **知识传递策略**: 教师会针对每一个可能的兴趣点提供相应的语义向量表达形式,而学生则尝试模仿这种映射关系,使得所预测出来的边界框位置及其所属种类尽可能接近于预期结果。 通过这种方式,即使是在缺乏特定标签样本的情况下,也能让机器学会辨识那些从未接触过的实体实例。 #### 实验验证 为了评估提出的方案有效性,在多个公开可用的数据集中进行了广泛的测试实验。结果显示,相比于传统监督式学习方式以及其他同类先进算法而言,采用ViLD可以获得更优的成绩指标。特别是在处理稀有物种或是全新领域内的图片素材时表现出色,证明了该思路具有良好的迁移性和适应性[^3]。 ```python import torch from transformers import CLIPProcessor, CLIPModel def get_teacher_embeddings(image_paths, text_descriptions): processor = CLIPProcessor.from_pretrained('openai/clip-vit-base-patch32') model = CLIPModel.from_pretrained('openai/clip-vit-base-patch32') inputs = processor(text=text_descriptions, images=image_paths, return_tensors="pt", padding=True) outputs = model(**inputs) image_features = outputs.image_embeds.detach().numpy() text_features = outputs.text_embeds.detach().numpy() return image_features, text_features ```
评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值