【论文阅读】A Neural Conversational Model

这是google放在arvix上的一篇论文,写得是非常轻松随意,模型也很简洁,结果自称Modest。

对话只做到了一问一答,没有做到多轮,采用了两层LSTM进行建模,4096 cells大小,100K words, 到输出层的时候将4096 cells投影到2048 units。(OpenSubtitles dataset 上的配置,在另外一个小数据集上,cell的大小会变得小一点)

模型:
这里写图片描述

在推理时两种处理方案:1)每一步都做贪心 2) beam search
两个还比较大的对话数据集:
1. IT Helpdesk Troubleshooting dataset
30M tokens, and 3M tokens as test
2. OpenSubtitles dataset
Our training and validation split has 62Msentences (923M
tokens) as training examples, and the validation set has
26M sentences (395M tokens

Result:

datasetrnnppl
OpenSubtitles1728
IT Helpdesk Troubleshooting dataset818

一个有意思的sample:
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值