提升神经机器翻译性能:句法模板集成方法
1. 引言
在自然语言处理领域,神经机器翻译(NMT)是一个重要的研究方向。为了提升NMT的性能,研究人员提出了许多方法,其中句法模板的集成是一种有效的策略。本文将介绍一种将句法模板集成到NMT模型中的方法,包括模板生成方法、模型架构以及实验结果。
2. 模板集成方法
2.1 模板生成方法
给定句法树,每个词性(POS)标签是一个非终结节点,每个叶节点是一个包含一个分词后的单词的终结节点。基于以下方法之一,一些非终结节点可能会通过移除其子节点而被修剪成终结节点。最终,模板是修剪后的句法树的所有叶节点的列表。
- 基于长度的模板(LenT) :模板依赖于输入句子的长度,公式为 $d = min(max(L × λ, γ1), γ2)$,其中 $d$ 是修剪的深度级别,$γ1$ 和 $γ2$ 分别是从每个句子的解析句法树中提取的下限和上限深度,$λ$ 是反映修剪深度级别与句子长度之间依赖关系的超参数。例如,句子长度 $L$ 为 8,$λ = 0.15$,$γ1 = 3$,$γ2 = 6$,则修剪深度级别为 3。
- 基于概率的模板(ProbT) :基于每个树级别上 POS 标签的平均概率来选择表示模板的最佳深度级别。通过分析训练数据中所有 POS 标签的概率,选择概率最高的级别作为修剪深度 $d^ $,公式为 $d^ = argmax_{γ1≤d≤γ2}(mean(pd,1, pd,2, …, pd,i))$,其中 $pd,i$ 是深度级别 $d$ 中第 $i$ 个 POS 标签的概率。例如,在图中,
超级会员免费看
订阅专栏 解锁全文
842

被折叠的 条评论
为什么被折叠?



