论文学习笔记02(Learning phrase representations using rnn encoder-decoder for statistical machine translat)

这篇论文笔记探讨了RNN Encoder-Decoder模型在统计机器翻译中的应用,强调了其在捕捉短语语义、序列信息处理上的优势。模型通过RNN和Decoder结构,可以生成目标语言句子并评分输入输出序列。同时,笔记还介绍了LSTM单元、BLEU评估指标和词袋模型的相关概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文学习笔记

Learning phrase representations using rnn encoder-decoder for statistical machine translation

一.RNN Encoder-Decoder

1.优:

(1)能更好的捕捉短语的语义规律
(2)学习的是短语的连续空间表示,保留了短语的语义和句法结构。

2.RNN

h&lt;t&gt;=f(h&lt;t−1&gt;,xt)h_{&lt;t&gt;}=f(h_{&lt;t-1&gt;},x_t)h<t>=f(h<t1>,xt)
用到前一神经元的信息。
fff:非线性激活函数
RNN特点:用到序列信息,在预测时,序列信息很重要

3.Decoder

h&lt;t&gt;=f(h&lt;t−1&gt;,y&lt;t−1&gt;,c)h_{&lt;t&gt;}=f(h_{&lt;t-1&gt;},y_{&lt;t-1&gt;},c)h<t>=f(h<t1>,y<t1>,c)
下一个symbol的概率:
P(yt∣yt−1,yt−2,...,y1,c)=g(h&lt;t&gt;,yt−1,c)P(y_t|y_{t-1},y_{t-2},...,y_1,c)=g(h_{&lt;t&gt;},y_{t-1},c)P(ytyt1,yt2,...,y1,c)=g(h<t>,y

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值