[改善深度神经网络] Optimization algorithms习题解析

本文解析了[改善深度神经网络]课程中关于mini-batch梯度下降和优化算法的习题,包括不同类型的梯度下降方法对比、动量法、RMSProp及Adam优化算法的应用与调整等关键知识点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这是[改善深度神经网络]课程第二周的习题,一共10道。

image

解答:

[l]表示第l层,{l}表示第l个minibatch,(l)表示第l个样本。

答案选项3

image

解答:

选项1是肯定的,一个mini-batch的数据小于总样本,所以仅就一次迭代而言,mini-batch是快于整批迭代的。

一个epoch的mini-batch梯度递减迭代无法完全向量化所有样本,存在for循环,所以速度慢于整批迭代。

mini-batch梯度递减迭代需要for循环处理不同批次的数据,所以选项3也是错误的。

答案是选项1

image

解答:

如果mini-batch的大小为m,就是批量梯度递减迭代,而mini-batch的大小为1,就退化为随机梯度递减迭代,无法享受到向量化带来的好处。

答案选项2、4

image

解答:

mini-batch可能局部存在代价增加的情况,但总体上应该是下降的。批量梯度递减则应该是严格单调下降的。

答案是选项1

image

解答:

因为没有最开始的数据,所以v2在未校正前无法反映真实数据,小于平均值,校正之后正常,答案是选项3

image

解答:

选项3的alpha值随着t的增加,不断增加,是错误的方案。

答案选项3

image

解答:

增加beta值使得曲线更加平滑,同时整个曲线也会右移。

答案是选项2、3

image

解答:

1的下降曲线波动幅度最大,没有动量加速,增加beta值,下降曲线波动幅度减小,所以答案是选项3

image

解答:

加快学习速度的方法有:增加学习率、使用Adam优化、mini-batch梯度递减、精心选择的权重初始化值。而将权重值初始化为0或导致权重对称问题,不能采用。

答案是选项1、2、4、5

image

解答:

Adam优化用于mini-batch梯度递减,而不是批量梯度递减。

所以答案是选项2。

相关习题解析:

  1. [改善深度神经网络] Practical aspects of deep learning习题解析

image

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

云水木石

但行好事,莫问前程

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值