- 博客(4)
- 收藏
- 关注
原创 语义分割实例——FCN
卷积层输出形状的计算方法: 由于(320−64+16×2+32)/32=10且(480−64+16×2+32)/32=15,构造一个步幅为32的转置卷积层,并将卷积核的高和宽设为64,填充为16。FCN中第6、7、8层都是通过1×1卷积得到的,第6层的输出通道是4096,第7层的输出通道是4096,第8层的输出是1000(类),即1000个特征图(称为 heatmap),输出的特征图颜色越贴近红色表示对应数值越大。接下来创建一个全卷积网络net。的前向传播将输入的高和宽减小至原来的1/32,即10和15。
2025-06-26 00:24:58
1207
原创 现代卷积神经网络实战(AlexNet、VGG、ResNet)
此外,在第一层、第二层和第五层卷积层之后,加入窗口形状为3×3、步幅为2的最大汇聚层。通过配置不同的通道数和模块里的残差块数可以得到不同的ResNet模型,例如更深的含152层的ResNet-152。在最初的VGG论文中,作者使用了带有3×3卷积核、填充为1(保持高度和宽度)的卷积层,和带有2×2汇聚窗口、步幅为2(每个块后的分辨率减半)的最大汇聚层。ResNet的前两层跟之前介绍的GoogLeNet中的一样: 在输出通道数为64、步幅为2的7×7卷积层后,接步幅为2的3×3的最大汇聚层。
2025-06-15 14:59:41
1557
原创 LeNet-5:经典卷积神经网络的介绍与PyTorch实现
LeNet-5是最早发布的卷积神经网络之一,也是首个成功应用的CNN架构。LeNet-5最开始被用于识别手写数字,后续被广泛用于自动取款机中,帮助识别处理支票的数字。本文是一篇对LeNet-5网络的介绍和实现过程分享模型在训练过程中有效学习,优化过程稳定。训练与测试准确率接近且均在80%左右,说明模型在如Fashion-MNIST数据集上具备较强学改进方向:数据增强:添加随机翻转、裁剪或噪声,增强模型鲁棒性。超参数调优:调整学习率、增大训练轮次。
2025-05-13 23:38:20
1066
原创 线性回归和多层感知机实战指南
*多层感知机(MLP)**是一种前馈神经网络,包含输入层、隐藏层和输出层。目标是通过最小化预测值与真实值的均方误差(MSE)来优化参数 $\mathbf{w}$ 和 $b$。3.2 [模型实现与训练](#32-模型实现与训练)"""生成 y = Xw + b + 噪声"""1.2 [多层感知机](#12-多层感知机)3. [实验代码与结果](#3-实验代码与结果)1.1 [线性回归](#11-线性回归)1. [基础知识](#1-基础知识)2. [环境配置](#2-环境配置)"""小批量随机梯度下降"""
2025-05-04 11:19:23
327
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅