准备写一个论文学习专栏,先以对抗样本相关为主,后期可能会涉及到目标检测相关领域。
内容不是纯翻译,包括自己的一些注解和总结,论文的结构、组织及相关描述,以及一些英语句子和相关工作的摘抄(可以用于相关领域论文的写作及扩展)。
平时只是阅读论文,有很多知识意识不到,当你真正去着手写的时候,发现写完之后可能只有自己明白做了个啥。包括从组织、结构、描述上等等很多方面都具有很多问题。另一个是对于专业术语、修饰、语言等相关的使用,也有很多需要注意和借鉴的地方。
本专栏希望在学习总结论文核心方法、思想的同时,期望也可以学习和掌握到更多论文本身上的内容,不论是为自己还有大家,尽可能提供更多可以学习的东西。
当然,对于只是关心论文核心思想、方法的,可以只关注摘要、方法及加粗部分内容,或者留言共同学习。
Seeing isn’t Believing: Towards More Robust Adversarial Attack Against Real World Object Detectors
YueZhao1,2,HongZhu1,2,RuigangLiang1,2,QintaoShen1,2,ShengzhiZhang3,KaiChen1,2*
1SKLOIS,InstituteofInformationEngineering,ChineseAcademyofSciences,China
2SchoolofCyberSecurity,UniversityofChineseAcademyofSciences,China
3DepartmentofComputerScience,MetropolitanCollege,BostonUniversity,USA
{zhaoyue,zhuhong,liangruigang,shenqintao}@iie.ac.cn,shengzhi@bu.edu,chenkai@iie.ac.cn
发表于 ACM Conference on Computer and Communications Security(ACM CCS 2019)
Abstract
Recently Adversarial Examples (AEs) that deceive deep learning models have been a topic of intense research interest. Compared with the AEs in the digital space, the physical adversarial attack is considered as a more severe threat to the applications like face recognitionin authentication, objection detection in autonomous driving cars,etc. Existing works attacking object detectors are still very limited in various scenarios,e.g., varying distance and angles,etc. 描述及引子
对于隐藏攻击(H
鲁棒对抗样本

提出FIR、ERG及Nested-AE方法,增强对抗样本在目标检测领域的鲁棒性,实现在长距离、大角度及复杂场景下攻击效果,显著提升攻击距离及角度范围。
最低0.47元/天 解锁文章

8834





