本周值得读 | 不容错过的7篇paper

Guided Perturbations: Self Corrective Behavior in Convolutional Neural Networks

本文来自 UMCP 和 GE Global Research Center,文章提出一种通用的提高 CNN 性能的方法,无需学习和调整模型参数,为输入加上有引导性的结构扰动(guided structural perturbation)使预训练好的模型性能提高。2013 年 Goodfellow 和 Szegedy 发现模型对添加特定噪声的对抗样本误分类的情况,说明了 DNN 泛化能力存在问题,本文使用与其相反的思路来改善模型泛化能力。

将网络输出结果转换为 1-hot encoded vector(最大的置信类别设为 1,其他的都为 0),将其作为 groundtruth 求 loss 函数的值然后回传计算对输入层的梯度,将这个梯度乘一个非负的 scaling factor,然后加到原本的输入上即为扰动后的输入数据。文中有比对过不同数值的 scaling factor,大概 0.5 到 2 之间有比较好的效果。这种扰动的影响可以看做一种残留信息,在网络中传递时使得各个像素的上下文内容变得平滑了。(附一句原文:perturbations of the input image could be viewed as a form of structured distortion that is added to the input such that the context gets amplified in each pixel’s neighborhood which enables the network to correct its own mistakes)。文章最后还指出对网络中其他层做类似调整能进一步提高效果,也分析了对耗时的影响(速度和性能的权衡)。

论文链接:https://arxiv.org/abs/1703.07928

推荐人:刘桐,天津大学(PaperWeekly arXiv 组志愿者)

#GAN#

Generalization and Equilibrium in Generative Adversarial Nets (GANs)

文章出自普林斯顿大牛 Sanjeev Arora。本文的贡献主要有三点:

1. 泛化能力是衡量生成模型好坏的一个重要标准,本文指出 JS 散度、Wasserstein 距离都不能很好地衡量模型的泛化能力,为此,文中提出了一种基于 discriminator 的 neural network divergence/distance,用于衡量模型的泛化能力。

2. 作者还证明了 WGAN 的纯策略纳什均衡解的存在性。

3. 作者提出了 MIX+GAN(混合策略 GAN)的训练模式,该模式在实际训练中更稳定,并且证明了混合策略纳什均衡解的存在性。

论文链接:https://arxiv.org/abs/1703.00573

推荐人:洪佳鹏,北京大学(PaperWeekly arXiv 组志愿者)

Very Deep Convolutional Networks for Text Classification

作者来自 Facebook AI Research 和法国勒芒大学,该文章首先使用深层的神经网络来处理 NLP 任务,提出一种字符级深层卷积神经网络(VDCNN)用于文本处理,最多使用了 29 层卷积神经网络,更新了部分文本分类任务的 state-of-the-art。该文章延续了(Zhang)等人 15 年的文章用于文本分类的字符级卷积神经网络,包括测试数据和字符级信息拥吻文本分类任务,并给出深度分别为 9,17,29 的测试结果,证明深度确实能提高性能(精度)。该文章是首篇将用于 NLP 的神经网络向深度发展的文章。

论文链接:https://arxiv.org/abs/1606.01781

相关论文:https://arxiv.org/abs/1509.01626

相关源码:https://github.com/geduo15/Very-Deep-Convolutional-Networks-for-Natural-Language-Processing-in-tensorflow

推荐人:庄航,中科大(PaperWeekly arXiv 组志愿者)

Predicting Deeper into the Future of Semantic Segmentation

本文来自 Facebook AI Research,给定一个语义分割过的视频序列,预测尚未观看到的帧的分割结果,可以预测短时(2 秒内较准确)、中时和长时的分割结果,总体上比 baseline 准确度提高 25%。使用 state-of-the-art 的 semantic segmentation 模型(multi-scale dilated-10 semantic image segmentation network)来提供 label,不需大量的人工标注来分析。使用 CNN 隐式的分析 semantic segmentation map 中的信息,不需显式的为目标和场景建模。模型使用了 Adversarial 训练方式,可以批量(batch)的预测,即一次性预测未来的很多帧,也可以 autoregressive 的预测,即迭代式的使用一帧预测下一帧。

论文链接:https://arxiv.org/abs/1703.07684

推荐人:刘桐,天津大学(PaperWeekly arXiv 组志愿者)

#GAN in NLP#

Improving Neural Machine Translation with Conditional Sequence Generative Adversarial Nets

GAN 理论的热度仍在持续,但 GAN 在 NLP 任务中的应用并不那么理想,本文尝试在经典的机器任务中应用了 GAN 理论,并给出了定量地分析,是一次积极的尝试。

论文链接:https://arxiv.org/abs/1703.04887

#NMT#

Massive Exploration of Neural Machine Translation Architectures

本文的实验只有 Google 这种级别的大厂才能做的出,本文对大型 NMT 模型训练过程中各个超参数对结果的影响进行了实验分析,得出了许多有意义的结论:(1)embedding 用 2048 维结果最好,但没好到哪里去,128 维就基本上结果不错了;(2)LSTM 比 GRU 效果好;(3)2-4 层的双向 encoder 效果最佳等一些比较有指导意义的结论。

论文链接:https://arxiv.org/abs/1703.03906

相关代码:https://github.com/google/seq2seq/

感觉没几家有能力复现出来 ,因为 Google 花了 250,000 GPU hours 来训练。不过结论却是很有意义,毕竟调参是个技巧活。

#NMT#

最后推荐一个基于 dl4mt 框架的 NMT 框架 Nematus,功能更多,感兴趣的同学可以看过来。

框架介绍 paper 地址:

https://arxiv.org/pdf/1703.04357.pdf

相关代码:https://github.com/rsennrich/nematus

✎✎✎

本期「每周值得读」的部分内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,就请加入我们吧。请添加下面的微信号,并注明「学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。

关于PaperWeekly

PaperWeekly 是一个分享知识和交流学问的学术组织,关注的领域是 NLP 的各个方向。如果你也经常读 paper,喜欢分享知识,喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

关注微博: @PaperWeekly

微信交流群: 后台回复“加群”

### Zotero 中管理阅进度和阅状态的功能实现 Zotero 是一款强大的文献管理工具,其功能不仅限于存储和分类学术资源,还提供了丰富的选项来管理和追踪用户的阅进程。以下是关于如何在 Zotero 中实现阅进度与阅状态管理的具体说明: #### 阅状态的设置 用户可以在 Zotero 的扩展插件或内置功能中配置不同的阅状态标签,这些标签通常包括但不限于以下几种: - **New**: 表示全新的、尚未浏览过的文献[^1]。 - **To Read**: 将文献标记为待阅状态,提醒自己稍后查阅相关内容[^2]。 - **In Progress**: 当前正在进行中的阅任务,表明用户已经开始但还未完成对该文献的学习。 - **Read**: 已经完全阅完毕的状态标志。 - **Not Reading**: 明确表示某些文献不再属于当前的研究范围或者不需要进一步关注。 这种多级别的标注方式极大地提高了使用者对资料库的整体掌控力以及后续检索效率。 #### 添加摘要预览功能 为了提高筛选合适材料的速度,在决定是否要深入探究某文章之前,可以直接调取它的简短描述部分——即摘录内容。这一操作只需简单地单击目标条目即可触发显示动作;一旦确认有必要继续,则可通过专门按钮一键将其纳入正式收藏体系之中,并建立与其他相关联项目的联系以便日后参考使用[^3]。 #### 插入具体应用场景实例 除了基础性的个人用途之外,“Zotero Reading List” 这样的附加组件还能服务于更加广泛的群体需求场景下发挥作用: - 对于科研工作者而言,它有助于全程监控所涉及领域内的最新动态变化情况,防止错过任何一个可能至关重要的发现机会; - 而针对那些处于撰写学位论文阶段的学生们来说,则意味着他们拥有了一个可靠的方法去核实所有被提及出处都已经经过仔细审阅并充分理解过了的事实依据支撑点; - 即便是普通的爱好者也能够借助于此种机制更好地规划自己的闲暇时光安排表项列表结构形式呈现出来给者看懂明白意思就好啦😊 #### 技术增强特性概述 除此之外还有许多现代化技术手段加持使得整个体验变得更加流畅自然: - 自动保存每一次打开文件后的最后停留位置信息作为下次恢复起点参照物之一; - 可视化的图表统计分析报告生成器可以帮助识别哪些区域值得花更多时间投入进去钻研探索价值所在之处等等一系列实用型增值服务项目可供选择启用与否取决于实际需要程度高低不同而已哦??[^4] ```python # 示例代码:模拟简单的阅状态更新逻辑 class LiteratureItem: def __init__(self, title): self.title = title self.status = 'New' # 默认初始状态 def update_status(self, new_status): allowed_statuses = ['New', 'To Read', 'In Progress', 'Read', 'Not Reading'] if new_status in allowed_statuses: self.status = new_status else: raise ValueError(f"Invalid status {new_status}. Allowed statuses are: {allowed_statuses}") item = LiteratureItem("Sample Paper Title") print(item.status) # 输出: New item.update_status('In Progress') print(item.status) # 输出: In Progress ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值