AlexNet (2012提出的算法)
第一个成功实现大规模图像的模型,在 ImageNet 数据集上达到 ~85% 的 top-5 准确率 • 5 个卷积层,3 个全连接层,共有 60M 个可学习参数 • 使用 ReLU 激活函数,大幅提高收敛速度 • 实现并开源了 cuda-convnet ,在 GPU 上训练大规模神经网络在工程上成为可能;
网络层数:11、13、16、19 层 • 3×3 卷积配合 1 像素的边界填充,维持空间分辨率 • 每隔几层倍增通道数、减半分辨率,生成 1/2、1/4 尺度的更高抽象层级的特征
Going Deeper (2012~2014)
VGG (2014)
将大尺寸的卷积拆解为多层 3×3 的卷积 相同的感受野、更少的参数量、更多的层数和表达能力
GoogLeNet (Inception v1, 2014)
使用 Inception 模块堆叠形成, 22 个可学习层 • 最后的分类仅使用单层全连接层,可节省大量参数 • 仅 7M 权重参数(AlexNet 60M、VGG 138M)
开始搞
Prerequisites — MMClassification 0.25.0 documentation
超算中心配置,参考的链接如下:
我直接用的云端的shell
【超级视客营】基于超算平台的MMYOLO实践过程记录(环境配置)_TianleiShi的博客-优快云博客
第一步结果:
下载了很多包
继续配置环境包:
用到了下面的包,我也不知道对不对,先试试
使用conda安装torch库
conda install pytorch torchvision torchaudio pytorch-cuda=11.6 -c pytorch -c nvidia
下载了好久:、我选择了
- 通过mim来安装mmyolo依赖库: MMEngine、 MMCV 和 MMDetection 。
源码安装 出错了