文章目录
感受:该论文提出的攻击算法,在实验中特别费时间,每一次迭代需要循环N次(N为batch_size的大小),因此需要消耗大量的时间去生成对抗样本。此外,用该论文的方法与2022年几篇顶会论文对比。发现该算法在白盒以及黑盒上的攻击表现都稍微低于其他顶会的攻击算法。
相对于经典的IFGSM、MIFGSM算法 有显著的提高。此外,结合的多种数学知识。作者将三种方法分别是优化标准目标函数、注意力图和平滑决策面集成到论文方法 TAIG 中,作者研究了两种计算直线路径和随机分段线性路径上积分梯度的 TAIG。实验结果表明,论文中提出的方法生成了高迁移性的对抗样本,并且可以与以前的方法进行无缝协同工作,而且 TAIG 的性能优于现有的方法。
https://arxiv.org/abs/2205.13152
https://github.com/yihuang2016/TAIG
参考论文概述
https://blog.youkuaiyun.com/c9Yv2cf9I06K2A9E/article/details/125288718
代码
#Transferable Adversarial Attack Based on Integrated Gradients (ICLR 2022) 该论文训练时间超级长
#TAIG-S 以及TAIG-R 后者表现最好
def compute_ig(inputs,label_inputs,model):
steps = 20
baseline = np.zeros(inputs.shape)
scaled_inputs = [baseline + (float(i) / steps) * (inputs - baseline) for i in
range(0, steps + 1)]
scaled_inputs = np.asarray(scaled_inputs)
r_flag = True # 等于False时 为TAIG-S
if r_flag==True:
# This is an approximate calculation of TAIG-R
scaled_inputs = scaled_inputs + np.random.uniform(-epsilon,epsilon,scaled_inputs.shape)
scaled_inputs = torch.from_numpy(scaled_inputs)
scaled_inputs = scaled_inputs.cuda().
TAIG:一种基于集成梯度的可迁移对抗攻击算法

论文提出了TAIG方法,结合优化目标、注意力图和决策面,用于生成高迁移性的对抗样本。尽管实验中显示计算成本较高且攻击效果略逊于最新顶会论文,但TAIG在与现有方法协同工作时表现出色,特别是在白盒和黑盒攻击场景下。
最低0.47元/天 解锁文章
923

被折叠的 条评论
为什么被折叠?



