各层的特征的差异性

motivation

不同层之间的特征分布有什么关系?

settings

STD

AttributeValue
batch_size128
beta10.9
beta20.999
datasetcifar10
descriptionSTD=STD-sgd-0.1=128=default
epochs164
learning_policy[82, 123] x 0.1
losscross_entropy
lr0.1
modelresnet32
momentum0.9
optimizersgd
progressFalse
resumeFalse
seed1
stats_logTrue
transformdefault
weight_decay0.0002

AT

AttributeValue
attackpgd-linf
batch_size128
beta10.9
beta20.999
datasetcifar10
descriptionAT=AT-sgd-0.1=pgd-linf-0.0314-0.25-10=128=default
epochs100
epsilon0.03137254901960784
learning_policy[50, 75] x 0.1
losscross_entropy
lr0.1
modelresnet32
momentum0.9
optimizersgd
progressFalse
resumeFalse
seed1
stats_logTrue
steps10
stepsize0.25
transformdefault
weight_decay0.0005

results

对比STD 和 AT, 有一些结果是预期的, 显然AT的最后logits是变化是很小的, 而STD的变化很大. 不过有意思的是, 其实STD的前面的层, 变化也都不大, 到了pooling前后变化一下子打了起来, 所以如果对pooling前加以限制是否能提高鲁棒性? 感觉会是跷跷板啊.

注: AT比STD多了一层, 是把输入作为第一层添加进去了.

STD

max

max

min

min

mean

mean

norm1

norm1

norm2

norm2

norminf

norminf

AT

max

max

min

min

mean

mean

norm1

norm1

norm2

norm2

normlinf

norminf

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值