吴恩达深度学习笔记(四)week1卷积神经网络

本文详细介绍了卷积神经网络的概念,包括边缘检测、Padding、Valid/Same卷积、卷积步长、卷积核的通道数、多核卷积、单层卷积网络、池化层以及卷积神经网络的优势。通过吴恩达老师的深度学习课程,深入理解CNN在图像处理中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


吴恩达老师建议从事深度学习其他方向研究的人员也可以了解计算机视觉方面的算法与实例,并从中获得自己领域的灵感。


边缘检测示例

这里写图片描述
如上图中的简单例子为例,竖直边缘被检测出来了。

Padding

如上图所示,我们得到的输出图片比输入图片变小了,事实上,不加padding直接卷积有如下两个缺点:

  • 图片变小:n×nn×n的图片将会变为(nf+1)×(nf+1)(n−f+1)×(n−f+1)其中ff为滤波器的大小
  • 失去边缘的信息:边缘部分只做了一次卷积运算
    为了解决以上问题可以通过加padding来解决 ,即给输入图片做填充,如下图所示,此时输出图片的大小变为(n+2pf+1)×(n+2pf+1)
    这里写图片描述

valid/same卷积

  • valid卷积:不加padding,n×n>(nf+1)×(nf+1)n×n–>(n−f+1)×(n−f+1)
  • same卷积:加padding,输出图片大小不变,p=(f1)/2p=(f−1)/2(一般来说,ff为奇数)

卷积步长(stride)

以上例子的卷积步长都是1,即滤波器窗口每次移动一格。以下图片是卷积步长为22的结果:
这里写图片描述
一般的,对于卷积步长为s的卷积输出图片大小为:n×n>n+2pfs+1×n+2pfs+1n×n–>⌊n+2p−fs+1⌋×⌊n+2p−fs+1⌋
note:若卷积窗口移动到图片外面时,则停止卷积,丢失边缘信息,这就是为什么向下取整的原因。

卷积中的“卷”体现之处

卷积核的通道数

这里写图片描述
如上图所示,当我们对RGB图像做卷积时,卷积核的第三个维度必须和输入图片的第三维相同,最后输出则把三个维度之和作为输出。

多核卷积

我们可以把输入图片同时经过多个滤波器以提取图片的多种信息:如水平边缘、竖直边缘。。。
这里写图片描述

单层卷积网络

这里写图片描述
以第一层为例:输入为大小为6×6×36×6×3通过两个大小为3×3×33×3×3的滤波器做卷积运算(此时的滤波器相当于BP神经网络中的WW,卷积运算相当于BP神经网络中的线性运算),之后再把结果通过激活函数记即得下一层的输入。

单层卷积的参数个数

假设滤波器的大小为3×3×3,有1010个滤波器,每个滤波器有11个偏置单元,则参数的个数为(3×3×3+1)×10=280

池化(采样)层

池化层有多种池化,课程中提到了最大池化和平均池化,值得一提的是训练神经网络时池化层的参数并不会更新:
最大池化:
最大池化
平均池化
平均池化

简单卷积网络示例

卷积神经网络中层的类别

  • 卷积层
  • 池化层
  • 全连接层

LeNet-5卷积神经网络

这里写图片描述

卷积神经网络的优势

这里写图片描述

  • 权共享:通过权共享能有效的减少参数的个数 ,从而提高训练的效率。如图所示,输入图片共用滤波器的99个参数。
  • 稀疏表示:每一层,每个神经元的输出只依赖于少数几个输入。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值