5、Deps - SAN:用于神经机器翻译的创新方法

Deps - SAN:用于神经机器翻译的创新方法

在神经机器翻译(NMT)领域,提升Transformer架构的语法感知能力是一个重要的研究方向。本文将介绍一种名为Deps - SAN(Dependency - scaled Self - Attention Network)的创新方法,它为Transformer架构的语法感知NMT带来了新的解决方案。

1. 研究背景与贡献

在现有的NMT架构中,一些方法没有通过语法信息修改核心的自注意力网络(SAN)组件。为了解决这个问题,研究者提出了无参数的Deps - SAN,用于语法感知的基于Transformer的NMT。其主要贡献如下:
- 引入Deps - SAN :为无约束的SAN的注意力分布提供引导,通过引入量化的语法依赖关系来计算传统的SAN。
- 提出知识稀疏方法 :提出两种知识稀疏技术(RS - Sparsing和Wink - Sparsing),防止Deps - SAN过拟合依赖噪声,为基于SAN的方法的抗过拟合提供了思路。
- 实验验证有效性 :在两个基准NMT数据集上进行了广泛的实验和分析,证明了该系统的有效性。

2. 方法介绍

将该方法应用于基于Transformer的NMT需要经过三个步骤:
1. 推导依赖缩放矩阵
2. 构建Deps - SAN
3. **添加知识稀疏

下面详细介绍每个步骤:

2.1
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值