机器学习笔记 - 深度学习常见问题二

本文探讨了CNN相对于全连接DNN在图像分类中的优势,包括参数复用、位置不变性和先验知识。同时,文章详细解释了CNN参数计算和内存占用,以及解决GPU内存不足的方法。此外,还讨论了最大池化层的作用、局部响应归一化层的应用,以及LeNet-5之后的各种网络创新,如AlexNet、GoogLeNet、ResNet、SENet和Xception。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.与用于图像分类的全连接的DNN相比,CNN有什么优势?

        与全连接的DNN相比,CNN的主要优势在于图像分类。

        因为连续的层仅部分连接并且由于其大量复用权重,所以CNN的参数比全连接的DNN少得多,这使其训练速度快得多,降低了过拟合的风险,并且需要的训练数据也少得多。

        CNN学会了可以检测到特定特征的内核后,便可以在图像中的任何位置检测到该特征。相反,当DNN在一个位置学习某个特征时,它只能在该特定位置检测到它。由于图像通常具有非常重复的特征,因此对于CNN而言,使用较少的训练实例,可以比DNN更好地泛化图像处理任务(例如分类)。

        最后,DNN没有像素的排列方式的先验知识。它不知道附近的像素很近。CNN的架构嵌入了此先验知识。较低的层通常在图像的较小区域中标识特征,而较高的层将较低层的特征组合为较大的特征。这对大多数自然图像都能很好地工作,从而使CNN与DNN相比具有领先优势。

2.计算CNN参数和占用RAM

        问:考虑由三个卷积层组成的CNN,每个卷积层具有3×3内核,步幅为2和"same"填充。最低层输出100个特征图,中间层输出200个特征图,最顶层输出400个特征图。输入图像是200×300像素的RGB图像。CNN中的参数总数是多少?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坐望云起

如果觉得有用,请不吝打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值