论文阅读记录

本文探讨了利用检索策略辅助神经生成模型的问题,提出了一种新颖的ExemplarEncoder-Decoder方法,用于改进自然语言会话生成。同时,介绍了如何在神经机器翻译中引入检索机制,通过从训练集中获取相似样本,提升翻译质量。实验表明,浅层融合方法在整合检索信息方面效果更佳。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2018-10-10

Exemplar Encoder-Decoder for Neural Conversation Generation
思路清奇,标本编码器解码器,利用训练数据中相似的样本来生成回应。

指出了一个问题:模型的所有参数均来源于训练数据。但是模型参数可能不是充分的对于生成自然语言的会话。因此,即使提供了大量的数据,神经生成模型仍然是无效的对于真实世界的应用。所以使用其他的类似检索策略来辅助生成,不过这个检索策略是在训练数据中进行检索。

2018-10-11

Search Engine Guided Neural Machine Translation
也是利用检索得到的数据指导翻译的生成,对于检索的数据 是从训练集中得到的

如果把整个训练数据当作memory去查询的话,太大了。

检索阶段:
首先使用Apache Luence在训练集中进行搜索得到一个子集,然后根据context之间的模糊匹配分数对子集中的元素进行排序,然后进行最终的选择。在进行最终的选择时,最简单的就是取前top K个。这里是使用贪心的选择策略去最大化源句子的覆盖。但是确保不会出现目标句子本身。

翻译阶段:
1)构建键值内存单元将检索到的数据对均通过NMT,然后以context vector为键,(hidden state_t, y_t)为值。将所有检索对放在一个内存单元中。

2)在翻译阶段,将当前序列的context vector作为query去查询键值内存单元,得到一个权重,最后在生成最终结果的时候,使用检索到信息的方式有两种,深度融合deep fusion和浅度融合 shallow fusion,其中浅层融合则类似于copy机制。实验结果证明,浅层融合的效果更好
最后还添加了coverage机制。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值