隐喻文本分类器:基于LSTM与预训练模型的研究
1. 隐喻分类概述
隐喻在自然语言中无处不在,隐喻检测通常被理解为区分字面语言和非字面语言的分类能力。目前,已有众多学者提出了有价值的隐喻检测方法,例如:
- 利用图卷积网络(GCN)结合ELMO语言模型进行隐喻识别。
- 基于VerbNet和WordNet设计检测算法。
- 评估使用BERT和Word2Vec模型,考虑具体性并实现多层感知机类型的模型。
- 专注于回顾和提出词嵌入模型。
这些研究展示了从图卷积网络到语言模型(如ELMO和BERT),再到词嵌入和向量表示等多种开发隐喻语言检测和分类算法的方法和工具,凸显了结合不同技术和模型以提高准确性和有效性的潜力。此外,还有一些文本分类领域的先进工具,如神经网络、卷积神经网络、生成式神经网络、朴素贝叶斯算法、图表示和循环神经网络等,也可用于该领域的未来研究。
2. 材料与方法
2.1 LSTM与自然语言处理(NLP)
在处理非字面文本分类问题时,本文考虑了1997年由Hochreiter和Schmidhuber提出的长短期记忆网络(LSTM)以及2014年开发的门控循环单元网络(GRU)。LSTM细胞具有较大的内存容量,尤其在NLP领域,能够处理更长的文本,同时还解决了传统循环神经网络(RNN)中常见的梯度泄漏问题。
LSTM的基本运作可概括为三个主要过程:
- 遗忘门 :决定遗忘哪些长期记忆。
- 输入门 :评估新信息以更新记忆。
- 输出门
LSTM与预训练模型隐喻分类研究
超级会员免费看
订阅专栏 解锁全文
1064

被折叠的 条评论
为什么被折叠?



