- 博客(5)
- 收藏
- 关注
原创 [论文笔记]INSTANCE ADAPTIVE ADVERSARIAL TRAINING: IMPROVED ACCURACY TRADEOFFS IN NEURAL NETS
研究背景对抗训练是目前最有效的提升深度学习模型鲁棒性的方法。但问题在于对抗训练后常常会伴随着原始样本分类正确率的下降,这是对抗训练存在的一大问题。主要贡献本文分析了对抗训练导致原始样本分类正确率下降的主要原因本文提出了一种新的对抗训练方法,在模型对抗鲁棒性持平的情况下提升原始样本的分类正确率主要方法1、对抗训练对于原始样本分类的影响本文提出,目前所有的对抗训练都是固定了噪声大小,...
2019-11-19 15:42:50
599
原创 [论文笔记]UNDERSTANDING AND ENHANCING THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES
研究背景在对抗攻击中,对抗样本可迁移性是人们关注的一个点。黑盒攻击的成功率一直不高,这背后的攻击机制需要探索,并且需要改进攻击效果。主要贡献本文从两个角度分析了影响对抗样本可迁移性的因素:模型本身性质和构造对抗样本时的loss函数的局部光滑性本文提出了一种提升黑盒攻击成功率的方法,variance-reduced attack。主要方法1、模型本身性质对于对抗样本迁移性的影响(1...
2019-11-04 18:05:51
687
原创 [论文笔记]Interpreting and Evaluating Neural Network Robustness
研究背景相比于广泛研究的神经网络对抗攻防方法,神经网络的鲁棒性很少有研究人员进行解释,因此需要一种手段对其进行解释并提供度量方法。本文贡献本文提出了一种可视化loss的方法对对抗攻击和防御进行解释。本文提出了一种度量神经网络鲁棒性的指标,并通过实验证明这种量化指标优于分类准确率这一评判指标。主要方法1、Loss可视化loss是与输入x和神经网络参数θ\thetaθ相关的数据,但二...
2019-11-03 12:33:32
462
原创 [论文笔记]Cognitive Psychology for Deep Neural Networks: A Shape Bias Case Study
研究背景神经网络的可解释性逐渐成为研究热点,本文的研究人员认为神经网络决策过程与人类认知过程也许有相似之处,并利用已经提出的人类认知过程假设来研究神经网络的决策过程。主要贡献本文从量化角度证明了神经网络识别时更偏好于识别形状而非颜色。证明这种偏差在同结构但不同初始化的网络中存在极大差异,并且和分类正确率无关。引申结论即为不同初始化的网络具有不同的决策过程,即使分类正确率类似。(笔者认为类...
2019-10-29 13:25:49
366
原创 [论文笔记]Protecting JPEG Images Against Adversarial Attacks (Augmented MS-ROI)
研究背景
2019-10-27 15:02:23
1329
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人