深度学习--卷积神经网络--LeNet-5/AlexNet/ZFNet/VGGNet/GoogleNet/ResNet算法理论

本文深入探讨卷积神经网络的基础,包括其降低复杂性、提升深度和鲁棒性的特性。介绍了卷积层、池化层、全连接层等关键组成部分,以及训练过程中的损失函数、学习率调整、数据增强等优化方法。同时,文章还概述了LeNet-5、AlexNet等经典CNN结构及其在图像分类与识别中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一 卷积神经网络基础

1 卷积神经网络与传统神经网络的联系

1)降低神经网络的复杂性

2)提升神经网络的深度

3)提升神经网络的鲁棒性

2 卷积神经网络的主要层次

1)Input Layer(数据输入层)

2)Conv Layer(卷积层)

3)ReLU Layer(激活层)

4)Pool Layer(池化层,在每个特征图上独立操作)

5)FC Layer(全连接层)

3 卷积神经网络的优缺点

1)优点

2)缺点

4 卷积神经网络的训练过程

1)损失函数与凸优化

2)学习率调整策略(一般而言学习率从大到小)

3)局部标准化与全局标准化

4)数据增强

5)模型过拟合解决方案

二 卷积神经网络常见结构


一 卷积神经网络基础

注意:CNN主要用于图像分类与物品识别

1 卷积神经网络与传统神经网络的联系

1)降低神经网络的复杂性

卷积核使神经元关注部分区域,从而降低了神经网络的复杂性

2)提升神经网络的深度

LeNet-5、AlexNet、ZFNet、VGGNet、GoogleNet、ResNet等CNN网络的发展,是不断增加深度

  • 第一点:使用更多的非线性获得更好的特征表达,从而更加逼近真实的映射关系
  • 第二点:导致了网络的复杂性,不仅容易过拟合,而且更加难以优化参数

3)提升神经网络的鲁棒性

神经网络提取特征,相比于手工提取特征,更具有鲁棒性,但是无法避免平移不变性

2 卷积神经网络的主要层次

1)Input Layer(数据输入层)

同机器学习一样,需要对数据进行特征工程

注意:白化

  • 是指数据经过PCA降维后,再进行标准差归一化(x=x/std(x)

2)Conv Layer(卷积层)

第一点:局部关联

每个神经元可以看做一个filter

第二点:窗口滑动

每个filter对局部数据进行计算

第三点:卷积核

  • 卷积核:由高度h、宽度w、深度d(通道数c)、步长s、填充值padding组成
  • 全卷积(W是卷积核)

(h,w,d)\rightarrow (1,h*w*d)\overset{(1,h*w*d)W}{\rightarrow} (1,{h}'*{w}'*1)\rightarrow ({h}',{w}',1)

\Rightarrow {h}'=\left \lceil\frac{h-h_{kernal}}{s_{kernal}}+1 \right \rceil,{w}'=\left \lceil\frac{w-w_{kernal}}{s_{kernal}}+1 \right \rceil

  • 反卷积/转置卷积(W是卷积核)

(h,w,1)\rightarrow (1,h*w*1)\overset{(1,h*w*1)W^{T}}{\rightarrow} (1,{h}'*{w}'*d)\rightarrow ({h}',{w}',d)

注意:全卷积中W可以确定形状,无法确定内部元素,从而反卷积中

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值