VGG 用了块


卷积层num: 重复几个卷积呀
最后丢到sequential里 变成一个块块
8+3=11
我有五块 前俩1+1 后三2+2+2
说明是在 conv_arch ((1,64),(1,64),(2,256)...) 1就是一层卷积2就是两层卷积 后面的参数是翻倍啦




13卷积3全连接


吴恩达






NiN 没有了全连接层 用的是全局平均汇聚层

![]()

7.4GooLeNet




下面的老师ppt更准确 其实我就是少画了 3*3最大汇聚层












这个创新有点意思

准确 但是慢 就是那个黄色圈


nn.BatchNorm2d里面参数是前面括号 里 输出通道数

不用1*1的话就正常两个卷积
用1*1 就是加上一个1*1卷积
- 两个卷积先写
- 用不用1*1卷积层
- 规范化层
- 最后最后relu
就是最后连接的过程
num_residual 要多少残差块

套娃!!!!!!!!!





吴恩达









没讲
本文详细解析了VGG的卷积层配置,包括1×1卷积、标准化层和残差块的应用,并对比了吴恩达讲解的全连接层与NiN的全局平均池化。同时介绍了GooleNet和DenseNet的特色,突出了稠密连接网络的创新。

https://blog.youkuaiyun.com/qingsi11/article/details/112285969
https://zh.d2l.ai/chapter_convolutional-modern/densenet.html

被折叠的 条评论
为什么被折叠?



