论文笔记:A Convolutional Encoder Model for Neural Machine Transltion

本文探讨了一种基于卷积层的非循环神经网络模型在神经机器翻译中的使用,旨在解决循环神经网络并行计算的限制。卷积神经网络通过固定大小窗口计算,减少了序列元素间关系的学习路径,同时,文中介绍了池编码器和卷积编码器两种非循环编码方式,并在实验部分展示了模型的参数配置和初始化方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基础知识点

提出了一个基于卷积层的模型,能够实现同时编码,而循环神经网络计算受时间依赖性约束。

卷积神经网络模型具有的优点(为什么目前在机器翻译中最好的模型是双向循环神经网络,还要尝试用卷积神经网络解决问题的原因):
1.卷积神经网络在一个输入序列固定大小窗口上计算,能够实现同时计算一个源句的所有特征,而RNN保留了整个过去的隐藏状态,因此不能够实现并行计算。
2.与RNN相比,一系列卷积层提供了捕获序列元素间关系的较短路径?,由于卷积神经网络得到的树结构使用固定数量的non-linearities,而RNN要根据时间步来确定non-linearities的数量,因此简化了学习。

Non-recurrent Encoders

Pooling Encoder(池编码器)

平均K个连续词的嵌入(不传达位置信息)+位置嵌入(编码句子中每个源词的绝对位置)
ej(source embedding)=wj(word embedding)+lj(position embedding)e_j(source\ embedding)=w_j(word\ embedding)+l_j(position\ embedding)ej(source embedding)=wj(word embedding)+lj(positio

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值