卷积神经网络--AlexNet

AlexNet

AlexNet发展史

在这里插入图片描述

AlexNet网络亮点:

1.首次利用GPU加速训练;
2.使用了ReLU激活函数,而不是传统的sigmod和Tanh激活函数;
3. 使用了LRN局部相应归一化;
4.在全连接层中使用了Dropout随机失活神经元操作,减少过拟合。
在这里插入图片描述

过拟合:

       根本原因是特征维度过多,模型假设过于复杂,参数过多,训练数据过少,噪声过多,导致拟合的函数完美的预测训练集,但对新数据的测试集预测结果差。过度的拟合了训练数据,而没有考虑到泛化能力。
在这里插入图片描述

使用Dropout作用

使得网络在正向传播过程中随机失活一部分神经元在这里插入图片描述
卷积后的矩阵大小计算公式
在这里插入图片描述

conv1:

kernels:48*2=96;kernel_size:11;padding:[1, 2];stride:4
input_size: [224, 224, 3]
N = (W − F + 2P ) / S + 1=[224-11+(1+2)]/4+1=55
output_size: [55, 55, 96]
在这里插入图片描述

Maxpool1:

kernel_size:3;pading: 0;stride:2;
input_size: [55, 55, 96]
N = (W − F + 2P ) / S + 1=(55-3)/2+1=27
output_size: [27, 27, 96]
在这里插入图片描述

Conv2:

kernels:128*2=256;;kernel_size:5;padding: [2, 2];stride:1
input_size: [27, 27, 96]
N = (W − F + 2P ) / S + 1=(27-5+4)/1+1
output_size: [27, 27, 256]
在这里插入图片描述

Maxpool2:

kernel_size:3;pading: 0;stride:2;
input_size: [27,27, 256]
N = (W − F + 2P ) / S + 1=(27-3)/2+1=13
output_size: [13, 13, 256]
在这里插入图片描述

Conv3:

kernels:192*2=384;;kernel_size:3;padding: [1, 1];stride:1
input_size: [13, 13, 256]
N = (W − F + 2P ) / S + 1=(13-3+2)/1+1
output_size: [13, 13, 384]
在这里插入图片描述

Conv4:

kernels:192*2=384;;kernel_size:3;padding: [1, 1];stride:1
input_size: [13, 13, 384]
N = (W − F + 2P ) / S + 1=(13-3+2)/1+1=13
output_size: [13, 13, 384]
在这里插入图片描述

Conv5:    

kernels:128*2=256;;kernel_size:3;padding: [1, 1];stride:1
input_size: [13, 13, 384]
N = (W − F + 2P ) / S + 1=(13-3+2)/1+1=13
output_size: [13, 13, 256]
在这里插入图片描述

Maxpool3:    

kernel_size:3;pading: 0;stride:2;
input_size: [13,13, 256]
N = (W − F + 2P ) / S + 1=(13-3)/2+1=6
output_size: [6, 6, 256]
在这里插入图片描述

三个全连接层:    

Full Connection1:

nodes=2048
input_size=[6 * 6 * 256]   output=[2048]

Full Connection2:    

nodes=2048
input_size=[2048]   output=[2048]

Full Connection3:    

nodes=1000
input_size=[2048]   output=[1000]

在这里插入图片描述

完整网络结构

在这里插入图片描述

使用的花分类数据集

在这里插入图片描述

<think>我们正在讨论卷积神经网络(CNN)的基础理论。根据引用内容,CNN是深度学习的一种代表算法,特别适用于处理图像、视频等网格化数据。它通过卷积层、池化层和全连接层等结构自动提取特征。关键点:1.卷积层:使用卷积核(滤波器)在输入数据上滑动,计算局部区域的加权和,提取局部特征。数学表达:$$(f*g)(t)=\int_{-\infty}^{\infty}f(\tau)g(t-\tau)d\tau$$,在离散情况下为:$$(f*g)[n]=\sum_{m=-\infty}^{\infty}f[m]g[n-m]$$2.池化层:降低特征图的空间尺寸,增强模型鲁棒性(如最大池化、平均池化)。3.激活函数:引入非线性(如ReLU:$f(x)=\max(0,x)$)。4.全连接层:在网络的末端进行分类或回归。CNN的独特优势在于权值共享和局部连接,大幅减少参数数量,并保留空间信息。相关问题:1.卷积层的具体计算过程是怎样的?2.为什么CNN比全连接神经网络更适合图像处理?3.常见的CNN架构有哪些(如LeNet,AlexNet等)?4.如何理解卷积神经网络中的“卷积”与数学中的卷积有何异同?</think>### 卷积神经网络基础理论 卷积神经网络(CNN)是深度学习的核心算法之一,特别擅长处理具有网格结构的数据(如图像、音频)。其基础理论包含以下核心概念: #### 1. 卷积操作(核心原理) - **数学定义**:离散卷积运算表示为 $$(f * g)[n] = \sum_{m=-\infty}^{\infty} f[m] \cdot g[n - m]$$ 其中 $f$ 是输入数据,$g$ 是卷积核(滤波器) - **实际应用**: 在图像处理中,使用 $3\times3$ 或 $5\times5$ 的卷积核在输入图像上滑动,计算局部区域的加权和,实现特征提取: ```python # 伪代码示例:二维卷积操作 for i in range(image_height): for j in range(image_width): output[i,j] = sum(kernel * image_patch[i:i+k_h, j:j+k_w]) ``` #### 2. 网络核心结构 | 层类型 | 作用 | 数学表达 | |--------------|----------------------------------------------------------------------|------------------------------| | **卷积层** | 提取局部特征(边缘/纹理等) | $y_{ij} = \sigma(\sum w_k x_{i+k,j+l} + b)$ | | **池化层** | 降维并保留关键特征(常用最大池化) | $\max(x_{i:i+p}, x_{j:j+p})$ | | **激活层** | 引入非线性(常用ReLU) | $f(x)=\max(0,x)$ | | **全连接层** | 最终分类/回归 | $y = Wx + b$ | #### 3. 关键创新机制 - **权值共享**:同一卷积核在整个输入上复用,大幅减少参数量 - **局部感知**:每个神经元只处理局部区域,符合视觉特性 - **层级特征提取**: - 浅层:边缘/角点等基础特征 - 中层:纹理/部件组合 - 深层:语义对象(如"车轮"、"人脸") #### 4. 生物学启发 CNN结构模拟视觉皮层V1-V4区的层级处理机制:简单细胞→复杂细胞→超复杂细胞[^3]。这种结构使网络能自动学习从低级到高级的特征表示[^2]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值