西瓜书学习——第五章神经网络

西瓜书第五章神经网络精要
本周深入研读西瓜书第五章,详尽解析神经网络核心概念,涵盖感知机、多层网络、误差逆传播算法及深度学习基础,旨在为读者提供全面的神经网络理论与实践指导。

通过这周对西瓜书第五章的学习,记录笔记如下:

第五章神经网络——感知机与多层网络1
第五章神经网络——误差逆传播算法1
第五章神经网络——误差逆传播算法2
第五章神经网络——误差逆传播算法3

 

第五章神经网络——其他常见神经网络1
第五章神经网络——深度学习1

 

 

 

 

 

### 西瓜中卷积神经网络的内容总结 #### 5.1 卷积神经网络简介 卷积神经网络(Convolutional Neural Network, CNN)是一种专门用于处理具有网格结构的数据的深层神经网络模型,如图像数据。CNN通过局部感知野、权值共享以及池化操作来减少参数量并提高模型的鲁棒性[^1]。 #### 5.2 局部感受野与权值共享机制 为了更好地捕捉输入空间中的局部模式,在每一层中只考虑一小部分相邻区域作为当前节点的感受域;同时采用相同的权重矩阵对不同位置上的子块做线性变换,即实现了所谓的“权值共享”。这种设计不仅降低了计算复杂度还增强了平移不变特性。 #### 5.3 池化层的作用 除了标准的全连接层之外,卷积神经网络还包括特殊的下采样单元——池化层。它能够进一步压缩特征图尺寸的同时保留重要信息,并有助于缓解过拟合现象的发生。常见的形式有多重最大值选取法(Max Pooling),平均值求解方式(Average Pooling)。 #### 5.4 LeNet-5架构分析 LeNet-5是由Yann Lecun提出的早期版本之一,其基本框架包含了两个交替排列着卷积层和亚抽样层(SUBSAMPLE Layer)组成的模块再加上三个完全连通层构成整个分类器主体结构。该模型成功应用于手写字体识别任务MNIST数据库上取得了很好的效果[^2]。 ```python import torch.nn as nn class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() self.conv1 = nn.Conv2d(in_channels=1, out_channels=6, kernel_size=5) self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2) self.conv2 = nn.Conv2d(in_channels=6, out_channels=16, kernel_size=5) self.fc1 = nn.Linear(in_features=16*5*5, out_features=120) self.fc2 = nn.Linear(in_features=120, out_features=84) self.fc3 = nn.Linear(in_features=84, out_features=10) def forward(self, x): batch_size = x.size(0) x = self.pool1(F.relu(self.conv1(x))) x = self.pool1(F.relu(self.conv2(x))) x = x.view(batch_size, -1) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值