对抗样本(论文解读八):Towards More Robust Adversarial Attack Against Real World Object Detectors

鲁棒对抗样本
提出FIR、ERG及Nested-AE方法,增强对抗样本在目标检测领域的鲁棒性,实现在长距离、大角度及复杂场景下攻击效果,显著提升攻击距离及角度范围。

准备写一个论文学习专栏,先以对抗样本相关为主,后期可能会涉及到目标检测相关领域。

内容不是纯翻译,包括自己的一些注解和总结,论文的结构、组织及相关描述,以及一些英语句子和相关工作的摘抄(可以用于相关领域论文的写作及扩展)。

平时只是阅读论文,有很多知识意识不到,当你真正去着手写的时候,发现写完之后可能只有自己明白做了个啥。包括从组织、结构、描述上等等很多方面都具有很多问题。另一个是对于专业术语、修饰、语言等相关的使用,也有很多需要注意和借鉴的地方。

本专栏希望在学习总结论文核心方法、思想的同时,期望也可以学习和掌握到更多论文本身上的内容,不论是为自己还有大家,尽可能提供更多可以学习的东西。

当然,对于只是关心论文核心思想、方法的,可以只关注摘要、方法及加粗部分内容,或者留言共同学习。


Seeing isn’t Believing: Towards More Robust Adversarial Attack Against Real World Object Detectors

YueZhao1,2,HongZhu1,2,RuigangLiang1,2,QintaoShen1,2,ShengzhiZhang3,KaiChen1,2*
1SKLOIS,InstituteofInformationEngineering,ChineseAcademyofSciences,China
2SchoolofCyberSecurity,UniversityofChineseAcademyofSciences,China
3DepartmentofComputerScience,MetropolitanCollege,BostonUniversity,USA
{zhaoyue,zhuhong,liangruigang,shenqintao}@iie.ac.cn,shengzhi@bu.edu,chenkai@iie.ac.cn

发表于 ACM Conference on Computer and Communications Security(ACM CCS 2019)

Abstract

Recently Adversarial Examples (AEs) that deceive deep learning models have been a topic of intense research interest. Compared with the AEs in the digital space, the physical adversarial attack is considered as a more severe threat to the applications like face recognitionin authentication, objection detection in autonomous driving cars,etc. Existing works attacking object detectors are still very limited in various scenarios,e.g., varying distance and angles,etc. 描述及引子

对于隐藏攻击(H

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值