循环神经网络(RNN)在自然语言处理(NLP)中的应用
1. RNN处理文本的基本流程
将文本融入循环网络是一个直接的过程,类似于前一章的卷积神经网络(CNN)分类。句子中的单词会被转换为词嵌入,然后作为时间序列输入到网络中。在这种情况下,我们无需担心序列的最小长度,因为单词的上下文是在RNN的记忆中学习的,而不是通过输入的组合。
有研究对CNN和RNN架构在各种NLP任务(如文本分类、蕴含关系判断、答案选择和词性标注)中的表现进行了广泛比较。研究表明,RNN在大多数任务中表现良好,而CNN仅在某些主要特征为关键短语的匹配情况下表现更优。总体而言,CNN和RNN对句子的建模方法不同,CNN倾向于学习类似于n - 元语法的特征,而RNN旨在维护长距离依赖关系以定义上下文。
2. RNN在NLP中的具体应用
2.1 文本分类
- 流程 :对于输入句子的简单文本分类任务,循环网络能够在每个时间步依次对词嵌入进行编码。当整个序列编码完成后,使用最后一个隐藏状态来预测类别。网络通过反向传播时间(BPTT)进行训练,并学会依次权衡单词以完成分类任务。
- 相关研究 :有研究比较了CNN和RNN架构在短文本分类中的表现,发现通过CNN和RNN架构添加顺序信息显著改善了对话行为表征的结果。还有研究使用长短期记忆网络(LSTM)对推文进行编码以预测情感,展示了RNN捕捉推文中复杂结构的能力,特别是否定短语的影响。另外,有研究引入了双LSTM架构用于语义匹配,该架构对问题和答案进行编码,并使用问题和答案向量的内积对候选响应进行排序。 <
超级会员免费看
订阅专栏 解锁全文
1174

被折叠的 条评论
为什么被折叠?



