- 博客(6)
- 收藏
- 关注
原创 第6周学习笔记:Vision Transformer & Swin Transformer学习
该模型将Transformer结构直接应用到图像上,即将一张图像分割成多个patches,这些patches看作是NLP的tokens (words),然后对每个patches做一系列linear embedding操作之后作为Transformer的input。
2022-08-19 11:55:38
652
原创 第5周学习笔记:ShuffleNet & EfficientNet & 迁移学习
ShuffleNet 是旷视科技在 2017 年提出的模型,论文《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices》。ShuffleNet 和 MobileNets 都采用了分组卷积的思想降低计算量,但是和 MobileNets 不同,ShuffleNet 通过 Channel Shuffle 操作打乱分组,从而获得其他分组的信息。...
2022-08-11 01:16:28
442
原创 MobileNetV1, V2, V3学习笔记
MobileNet网络是由google团队在2017年提出的,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量。(相比VGG16准确率减少了0.9%,但模型参数只有VGG的1/32)。...
2022-08-03 15:02:41
389
原创 学习笔记-第三周
同深度的ResNet网络结构配置,表中的残差结构给出了主分支上卷积核的大小与卷积核个数,表中残差块×N表示将该残差结构重复N次。
2022-07-27 16:06:33
583
原创 深度学习与pytorch基础-第二周学习笔记
结构基本上是softmaxlayers+=[nn.AvgPool2d(kernel_size=1,stride=1)]returnnn.Sequential(*layers)#网络放到GPU上net=VGG().to(device)criterion=nn.CrossEntropyLoss()optimizer=optim.Adam(net.parameters(),lr=0.001)
2022-07-20 15:42:00
486
原创 第一周-深度学习与pytorch基础
人工智能:使一部机器像人一样进行感知、认识、决策、执行的人工程序或系统。机器学习:计算机系统能够利用经验提高自身性能(最常用定义)。深度学习:不同于传统机器学习,应用了深度神经网络。M_P神经元:激活函数:神经元继续传递信息、产生新连接的概率(超过阈值被激活,但不一定传递)。激活函数举例:神经网络每一层的作用:在神经元总数相当的情况下,增加网络深度可以比增加宽度带来更强的网络表示能力:产生更多的线性区域。深度和宽度对函数复杂度的贡献是不同的,深度的贡献是指数增长的,而宽度的贡献是线性
2022-07-12 10:31:35
257
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人