准备写一个论文学习专栏,先以对抗样本相关为主,后期可能会涉及到目标检测相关领域。
内容不是纯翻译,包括自己的一些注解和总结,论文的结构、组织及相关描述,以及一些英语句子和相关工作的摘抄(可以用于相关领域论文的写作及扩展)。
平时只是阅读论文,有很多知识意识不到,当你真正去着手写的时候,发现写完之后可能只有自己明白做了个啥。包括从组织、结构、描述上等等很多方面都具有很多问题。另一个是对于专业术语、修饰、语言等相关的使用,也有很多需要注意和借鉴的地方。
本专栏希望在学习总结论文核心方法、思想的同时,期望也可以学习和掌握到更多论文本身上的内容,不论是为自己还有大家,尽可能提供更多可以学习的东西。
当然,对于只是关心论文核心思想、方法的,可以只关注摘要、方法及加粗部分内容,或者留言共同学习。
Adversarial Attacks and Defenses in Images, Graphs and Text: A Review
HanXu1 YaoMa2 HaochenLiu3 DebayanDeb4 HuiLiu5 JiliangTang6 AnilJain7
Michigan State University, {xuhan1@msu.edu}
论文公布于2019/9/17,是目前已知最新且较全的相关综述文章,对于相关方向具有很大的学习和扩展意义。
综述较长,分上下篇,此为上篇。
**
Abstract
**
Deep neural networks (DNN) have achieved unprecedented success in numerous machine learning tasks in various domains. However, the existence of adversarial examples raises our concerns in adopting deep learning to safety-critical applications.
本文提供了一个系统且全面的关于主流攻击和相关成功防御的综述。对于最受欢迎的3种数据类型:图像、图及文本,回顾了其相应最先进的攻击算法及防御对策。( the main threats of attacks and the success of corresponding countermeasures)
1.Introduction
Deep neural networks have become increasingly popular and successful in many machine learning tasks. 引
Because of these accomplishments, deep learning techniques are also applied in safety-critical tasks. For example, in autonomous vehicles, Similarly, in the financial fraud detection systems, Therefore, the safety issues of deep neural networks become a major concern. 引
For example,