论文那些事—Feature Importance-aware Transferable Adversarial Attacks

Feature Importance-aware Transferable Adversarial Attacks(FIA,ICCV 2021)

1、摘要

基于迁移性的黑盒攻击,中间层攻击。 首先利用 聚合梯度获取迁移性更好的梯度信息,本文中认为梯度信息代表了该点的特征重要性,然后通过抑制比较重要的特征,增强比较不重要的特征,来干扰模型最终的判断。

 从图中可以看出传统的攻击方式生成的对抗样本在黑盒攻击中会被弱化,甚至无效,鸟的特征比原先更加突出,而本文的方法FIA则将注意力转移出去了。

流程图如下:

 输入一张图片,提取到中间层的特征,然后进行反向传播计算梯度,用梯度来代表特征的重要性,然后将特征图谱和特征重要性进行点乘,得到加权特征映射,再用来做优化,优化目标是通过具体抑制积极/重要特征促进消极/琐碎特征来优化加权特征映射,从而获得更高的可转移对抗性样本。

中间层:指CNN中输入和输出之间的所有层,都叫中间层,文中只取其中一层,所以有一个层数

### 如何评估PCA-LDA组合降维后特征的重要性 在应用PCA(主成分分析)和LDA(线性判别分析)组合进行降维之后,评估新特征的重要性能帮助理解模型并优化其表现。以下是几种常用的方法来衡量这些特征的重要性: #### 使用方差贡献率评价PCA效果 对于PCA部分,在转换过程中产生的每一个主成分都具有对应的方差值,该数值反映了此维度上数据分布的离散程度。可以通过计算各个主成分所占总方差的比例——即方差贡献率,以此作为初步判断依据之一[^1]。 ```python from sklearn.decomposition import PCA pca = PCA() X_pca = pca.fit_transform(X) explained_variance_ratio = pca.explained_variance_ratio_ print(explained_variance_ratio) ``` #### 利用载荷矩阵解析各原始变量的影响 通过查看PCA变换后的载荷矩阵(loading matrix),能够得知原输入空间中的每个属性与新的主成分之间的关联强度。绝对值较大的元素意味着相应变量在此方向上的投影较强,从而间接表明它对该主成分形成的贡献较大[^3]。 #### 基于LDA分离度指标考量类间差异 进入LDA阶段后,则更关注不同类别样本间的区分能力。可以采用Fisher准则函数或者广义瑞利商等形式化表达式定量描述各类中心距离远近关系;另外还可以观察W-1B的最大特征值及其相应的特征向量,它们指示出了最佳划分超平面的方向以及权重分配情况[^4]。 ```python from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA lda = LDA(n_components=2) X_lda = lda.fit_transform(X, y) # 获取LDA组件系数 lda_components_ = lda.scalings_ print(lda_components_) ``` #### 综合考虑业务逻辑下的实际意义 尽管上述统计学手段提供了量化视角下关于特征重要性的见解,但在某些应用场景里还需要结合领域专业知识做出最终评判。例如金融风控建模时,即便某个衍生指标看似微不足道,但如果能有效捕捉潜在风险信号则不可忽视其价值所在[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值