以下内容和图片均来自台湾大学深度学习课程。
课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html
Generation
RNN的应用方法
sentences是由characters/word组成;- 使用RNN的方法每次生成一个
characters/word
X 是之前产生的一个word,用one-hot-encoding 表示。通过function f 处理后,生成distribution probility
这部分其实之前课程中有讲过,这边重复一遍过程。举例说明,具体实践中每一步的实现方法。
- 假设
Train的句子是“床前明月光”。 x1 为一句话的开始符,例如标识为<BOS>,代表begin of sentences。在这里,包括后面,不管是word还是标识符<BOS><EOS>,所有的 x 都用one-hot-encoding的方式表示; -
x1 与 初始化的 h0 通过functionf ,得到y1 与 h1 。此时, y1 中的分布概率代表每个字出现在一句话首位的概率, P(w|<BOS>) 。 h1 则作为下一步的输入,向后传递信息; - 继续下一层。向 f 中输入
x2 与 h1 ,这里 x2 即为床的one-hot-encoding信息,得到 y2 与

本文介绍了台湾大学深度学习课程中的序列生成,包括RNN在生成任务中的应用,如图像描述、机器翻译和聊天机器人。讨论了有条件序列生成、注意力机制、训练与测试的不匹配问题,并提及了 Beam Search 策略的重要性。
最低0.47元/天 解锁文章
1675

被折叠的 条评论
为什么被折叠?



