CNN 基础知识

1. 神经元 VS feature map VS 卷积核

   神经元:feature map 的大小

   feature map:输入图像经过卷积核卷积后的各像素点的组合

   卷积核: 属于共享参数

 

2. 权值共享

   权值共享:同一个feature map中神经元使用同一个权值,可训练参数只与卷积核大小、个数、通道有关

 

3. 感受野 and 计算量

  •    计算量: 考虑可训练参数、连接数

可训练参数:

      卷积层:(卷积核面积 + 1 )* 卷积核个数   

      下采样层:(1 + 1) * 卷积核个数      

连接数:神经元个数(feature map大小) *  [(卷积核面积 + 1)* 卷积核个数]

  • 感受野

从CNN可视化的角度来讲,就是输出feature map某个节点的响应对应的输入图像的区域就是感受野

计算方法:参考 https://blog.youkuaiyun.com/program_developer/article/details/80958716

 

4. 卷积层 VS 全连接层

       

  • 卷积层

          假设输入图像为3*28*28,通过20个卷积核,可以得到20*24*24的卷积层,这20个卷积层是由每一个卷积核与输入图像的三通道进行卷积,然后求和。

        (参考:多通道(比如RGB三通道)卷积过程 https://blog.youkuaiyun.com/u014114990/article/details/51125776

  • 全连接层

           最后一层池化层为 20*12*12, 可以看成(20*12*12)*1的列向量,通过固定权值的行向量100*(20*12*12),得到100*1 的全连接层神经元;

        (参考:全连接层与卷积层的区别 https://blog.youkuaiyun.com/jiachen0212/article/details/82496401

 

 

### 卷积神经网络 (CNN) 的基础概念 卷积神经网络(Convolutional Neural Networks, CNN),这一概念最早可追溯至二十世纪八九十年代,但由于当时的技术条件限制并未得到广泛应用。直到近年来,随着深度学习理论的发展和技术的进步,尤其是数值计算设备性能的提升,使得卷积神经网络得以迅速发展并成为图像处理领域的重要工具[^1]。 #### 特征提取机制 CNN是一种特殊的前馈型神经网络架构,在这种结构中每一个神经元仅与其上一层的部分区域连接而非全部节点相连。这样的设计特别适合于捕捉空间上的局部特征模式,比如在二维图片数据中的边缘或者纹理特性。通过这种方式构建起来的感受野能够有效地减少参数数量,并增强模型对平移变换的鲁棒性[^2]。 #### 主要组成部分 - **输入层**:负责接收原始的数据样本作为输入,通常情况下是指未经任何预处理操作过的像素矩阵形式表示的图像文件。 - **卷积层**:这是构成CNN的核心部分之一,其主要功能是对来自输入层或其它更深层次的信息进行滤波器扫描从而生成新的特征映射图谱。这些经过加权求和再激活函数作用后的输出会被传递给后续阶段继续加工利用[^3]。 ```python import torch.nn as nn class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv_layer = nn.Conv2d(in_channels=1, out_channels=16, kernel_size=3) def forward(self, x): output = self.conv_layer(x) return output ``` #### 训练过程概述 在整个训练过程中,损失函数会指导权重更新的方向;反向传播算法则用于高效地计算各层之间的误差梯度值以便调整相应的连接强度。由于采用了逐层递归的方式来进行局部敏感性的估计,因此即使面对复杂的多维非线性关系也依然能保持较高的收敛速度与稳定性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值