AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。
ICLR 2021 论文推荐
Online Adversarial Purification based on Self-supervised Learning(基于自我监督学习的在线对抗性净化技术)
论文链接:https://www.aminer.cn/pub/6008348f9e795ed227f5322a/?conf=iclr2021
推荐理由: 深度神经网络很容易受到对抗性例子的影响,输入空间的扰动会导致潜在网络表征的放大转变。在本文中,作者将典型的监督学习与自监督表征学习结合起来,并提出了自监督在线对抗性净化(Self-supervised Online Adversarial Purification , SOAP),它是一种新的防御策略,使用自监督损失来净化测试时间的对抗性例子。自监督任务方该方法利用了自监督信号的标签无关性,并对抗面的对抗性扰动。SOAP在最先进的对抗性训练和净化方实现了稳健准确性,而训练的复杂性却大大降低。作者称该论文是第一个将使用自我监督信号来执行在线测试时间净化普及化的论文。
Deep Neural Network Fingerprinting by Conferrable Adversarial Examples(深度神经网络指纹识别的可推理对抗性实例)
论文链接:https://www.aminer.cn/pub/5de632593a55ac4f55c2575c/?conf=iclr2021
推荐理由: 在机器学习服务中,供应商训练一个深度神经网络,并让众多用户访问。托管的(源)模型很容易受到模型窃取的攻击,即对手从源模型的API访问中得出一个代理模型。对于这种攻击的事后检测,提供者需要一个强大的方法来确定一个可疑的模型是否是他们模型的代用品。作者为深度神经网络分类器提出了一种指纹识别方法,从源模型中提取一组输入,以便代用者与源模型在这类输入的分类上达成一致。这些输入是可转移的对抗性例子的一个子类,被称之为可赋予的对抗性例子,与目标标签一起从源模型转移到其代理者。该工作提出了一种新的方法来生成这些可赋予的对抗性例子,对其进行了指纹对微调、权重修剪、再训练、不同架构的再训练、对相关工作中的三种模型进行提取攻击、转移学习、对抗性训练,并对两种新的适应性攻击的不可移除性进行了广泛研究。在上述方法,指纹对蒸馏、相关模型的提取攻击,甚至当攻击者无法接触到模型提供者的数据集时,转移学习也是稳健的。
Neurally Augmented ALISTA(神经增强的ALISTA)
论文链接:https://www.aminer.cn/pub/5f7c4e8e91e0117ac2a78b43/?conf=iclr2021
推荐理由: 许多迭代稀疏重建算法展开后能够产生一个可学习的神经网络,从而提高经验性能。一个典型的例子是学习型ISTA(learned ISTA,LISTA),其中的权重、步长和阈值都是从训练数据中学习的。近期,分析型LISTA(Analytic LISTA,ALISTA)被引入,它结合了LISTA这样的完全学习方法的强大经验性能,同时保留了经典压缩传感算法的理论保证,大大减少了需要学习的参数数量。然而,因这些参数被训练成期望值,常常导致单个目标的次优重建。因此,在这项工作中,作者引入了神经增强的ALISTA,其中LSTM网络被用来在重建过程中为每个目标矢量单独计算步长和阈值。该方法进一步提高了稀疏重建的经验性能,特别是在压缩率变得更具挑战性的情况下,以较大的幅度超过了现有算法。
AMiner,AI赋能的学术搜索平台:https://www.aminer.cn/
#AMiner# #论文#