CS231N斯坦福计算机视觉公开课 04 -卷积神经网络

本文深入探讨了卷积神经网络的三个核心组成部分:卷积层、池化层和全连接层。卷积层通过卷积操作和padding实现特征提取;2.1*1卷积核用于降维、信息交融和减少参数量;池化层带来平移不变性但可能损失空间信息;全连接层则将特征映射展平,用于模型汇总,但也可能导致参数过多并丢失空间信息。
部署运行你感兴趣的模型镜像

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络

一、卷积层

1.卷积操作

  • 黄色部分:感受野
  • 粉色部分: feature map ,其数量成为通道数( channel
  • 红色数字:卷积核(有多少卷积核就会生成多少 feature map
  • 横向、纵向步长:每次移动的格子数(一般横向、纵向步长相同)

在这里插入图片描述

  • 由于上图中边缘的数参与了很少的计算,而中间的数参与了很多次的计算,这样是不公平的
  • 所以我们引入了padding操作,在矩阵的周围补0(补0的圈数可以自己定),这样可以使得边缘值参与更多次的计算

在这里插入图片描述

2. 1*1卷积核

  • 工作原理
    • 将所有通道同一位置的特征进行加权求和进行汇总

在这里插入图片描述

作用:

  • 进行降维或者升维
  • 跨通道的信息交融(把所有通道都放到了一个 channel 上)
  • 减少参数量(对于边缘计算、移动设备,需要比较轻量化的计算)
  • 增加模型深度,提高非线性表示能力

在这里插入图片描述

二、池化层

  • 池化可以给卷积神经网络带来平移不变性(泛化)
  • 缺点:丢失了空间信息
    在这里插入图片描述

三、全连接层

  • feature map 拉长成一个长向量,用于模型的汇总
  • 缺点:参数量非常大,且由于需要把 feature map 拉长成一个长向量,也丢失了空间信息
    在这里插入图片描述

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值