sheng的学习笔记-【中】【吴恩达课后测验】Course 5 - 序列模型 - 第三周测验 - 序列模型与注意力机制

课程5_第3周_测验题

目录:目录

第一题

1.想一想使用如下的编码-解码模型来进行机器翻译,这个模型是“条件语言模型”,编码器部分(绿色显示)的意义是建模中输入句子x的概率。

在这里插入图片描述

A. 【  】正确

B. 【  】错误

答案:

B.【 √ 】错误

第二题

2.在集束搜索中,如果增加集束宽度 b b b,以下哪一项是正确的?

A. 【  】集束搜索将运行的更慢

B. 【  】集束搜索将使用更多的内存

C. 【  】集束搜索通常将找到更好地解决方案(比如:在最大化概率 P ( y ∣ x ) P(y|x) P(yx)上做的更好)

D. 【  】集束搜索将在更少的步骤后收敛

答案:

A.【 √ 】集束搜索将运行的更慢

B.【 √ 】集束搜索将使用更多的内存

C.【 √ 】集束搜索通常将找到更好地解决方案(比如:在最大化概率 P ( y ∣ x ) P(y|x) P(yx)上做的更好)

第三题

3.在机器翻译中,如果我们在不使用句子归一化的情况下使用集束搜索,那么算法会输出过短的译文。

A. 【  】正确

B. 【  】错误

答案:

A.【 √ 】正确

第四题

4.假设你正在构建一个能够让语音片段 x x x转为译文 y y y的基于RNN模型的语音识别系统,你的程序使用了集束搜索来试着找寻最大的 P ( y ∣ x ) P(y|x) P(yx)的值y。在开发集样本中,给定一个输入音频,你的程序会输出译文 y ^ \hat{y} y^= “I’m building an A Eye system in Silly con Valley.”,人工翻译为 y ∗ y^* y = “I’m building an AI system in Silicon Valley.”

在你的模型中,

P ( y ^ ∣ x ) = 1.09 ∗ 1 0 − 7 P(\hat{y} \mid x) = 1.09*10^{-7} P(y^x)=1.09107

P ( y ∗ ∣ x ) = 7.21 ∗ 1 0 − 8 P(y^* \mid x) = 7.21*10^{-8} P(yx)=7.21108

那么,你会增加集束宽度 B B B 来帮助修正这个样本吗?

A. 【  】不会,因为 P ( y ∗ ∣ x ) ≤ P ( y ^ ∣ x ) P(y^* \mid x) \leq P(\hat{y} \mid x) P(yx)P(y^x)说明了问题在RNN,而不是搜索算法

B. 【  】不会,因为 P ( y ∗ ∣ x ) ≤ P ( y ^ ∣ x ) P(y^* \mid x) \leq P(\hat{y} \mid x) P(yx)P(y^x)说明了问题在搜索算法,而不是RNN

C. 【  】会的,因为 P ( y ∗ ∣ x ) ≤ P ( y ^ ∣ x ) P(y^* \mid x) \leq P(\hat{y} \mid x) P(yx)P(y^x)说明了问题在RNN,而不是搜索算法

D. 【  】会的,因为 P ( y ∗ ∣ x ) ≤ P ( y ^ ∣ x ) P(y^* \mid x) \leq P(\hat{y} \mid x) P(yx)P(y^x)说明了问题在搜索算法,而不是RNN

答案:

A.【 √ 】不会,因为 P ( y ∗ ∣ x ) ≤ P ( y ^ ∣ x ) P(y^* \mid x) \leq P(\hat{y} \mid x) P(yx)P(y^x)说明了问题在RNN,而不是搜索算法

第五题

5.接着使用第4题的样本,假设你花了几周的时间来研究你的算法,现在你发现,对于绝大多数让算法出错的例子而言, P ( y ∗ ∣ x ) > P ( y ^ ∣ x ) P(y^* \mid x) > P(\hat{y} \mid x) P(yx)>P(y^x),这表明你应该将注意力集中在改进搜索算法上,对吗?

A. 【  】正确

B. 【  】错误

答案:

A.【 √ 】正确

第六题

6.回想一下机器翻译的模型:

在这里插入图片描述

除此之外,还有个公式 α < t , t ′ > = exp ( e < t , t ′ > ) ∑ t ′ = 1 T x exp ( e < t , t ′ > ) \alpha^{< t,t'>} = \frac{\text{exp}(e^{< t,t'>})}{\sum^{T_x}_{t'=1}\text{exp}(e^{< t,t'>})} α<t,t>=t=1Txexp(e<t,t>)exp(e<t,t>),下面关于 α < t , t ′ > \alpha^{< t,t'>} α<t,t>的选项那个(些)是正确的?

A. 【  】对于网络中与输出 y < t > y^{<t>} y<t>高度相关的 α < t ′ > \alpha^{< t'>} α<t>而言,我们通常希望 α < t , t ′ > \alpha^{< t,t'>} α<t,t>的值更大(请注意上标)

B. 【  】对于网络中与输出 y < t > y^{<t>} y<t>高度相关的 α < t > \alpha^{< t>} α<t>而言,我们通常希望 α < t , t ’ > \alpha^{< t,t’>} α<t,t>的值更大(请注意上标)

C. 【  】 ∑ t α < t , t ′ > = 1 \sum_t\alpha^{< t,t'>} = 1 tα<t,t>=1(注意是和除以t)

D. 【  】 ∑ t ′ α < t , t ′ > = 1 \sum_{t'}\alpha^{< t,t'>} = 1 tα<t,t>=1(注意是和除以t’)

答案:

A.【 √ 】对于网络中与输出 y < t > y^{<t>} y<t>高度相关的 α < t ′ > \alpha^{< t'>} α<t>而言,我们通常希望 α < t , t ′ > \alpha^{< t,t'>} α<t,t>的值更大(请注意上标)

D.【 √ 】 ∑ t ′ α < t , t ′ > = 1 \sum_{t'}\alpha^{< t,t'>} = 1 tα<t,t>=1(注意是和除以t’)

第七题

7.网络通过学习的值 e < t , t ′ > e^{< t,t'>} e<t,t>来学习在哪里关注“关注点”,这个值是用一个小的神经网络的计算出来的:

这个神经网络的输入中,我们不能用 s < t > s^{<t>} s<t> 替换 s < t − 1 > s^{<t-1>} s<t1>。这是因为 s < t > s^{< t>} s<t>依赖于 α < t , t ′ > \alpha^{< t,t'>} α<t,t>,而 α < t , t ′ > \alpha^{< t,t'>} α<t,t>又依赖于 e < t , t ′ > e^{< t,t'>} e<t,t>;所以在我们需要评估这个网络时,我们还没有计算出 s t s^{t} st

A. 【  】正确

B. 【  】错误

答案:

A.【 √ 】正确

第八题

8.与题1中的编码-解码模型(没有使用注意力机制)相比,我们希望有注意力机制的模型在下面的情况下有着最大的优势:

A. 【  】输入序列的长度 T x T_x Tx比较大

B. 【  】输入序列的长度 T x T_x Tx比较小

答案:

A.【 √ 】输入序列的长度 T x T_x Tx比较大

第九题

9.在CTC模型下,不使用"空白"字符(_)分割的相同字符串将会被折叠。那么在CTC模型下,以下字符串将会被折叠成什么样子?__c_oo_o_kk___b_ooooo__oo__kkk

A. 【  】cokbok

B. 【  】cookbook

C. 【  】cook book

D. 【  】coookkboooooookkk

答案:

B.【 √ 】cookbook

第十题

10.在触发词检测中, x < t > x^{< t>} x<t>是:

A. 【  】时间 t t t时的音频特征(就像是频谱特征一样)

B. 【  】第 t t t个输入字,其被表示为一个独热向量或者一个字嵌入

C. 【  】是否在第 t t t时刻说出了触发词

D. 【  】是否有人在第 t t t时刻说完了触发词

答案:

A.【 √ 】时间 t t t时的音频特征(就像是频谱特征一样)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值