
PyTorch
JstuCheng
这个作者很懒,什么都没留下…
展开
-
【CV中的Attention机制】CBAM模块
前言目前cv领域借鉴了nlp领域的attention机制以后生产出了很多有用的基于attention机制的论文,attention机制也是在2019年论文中非常火。cbam虽然是在2018年提出的,但是其影响力比较深远,在很多领域都用到了该模块,所以一起来看一下这个模块有什么独到之处,并学着实现它。1. 什么是注意力机制?注意力机制(Attention Mechanism)是机器学习中的...原创 2020-01-30 23:56:09 · 2561 阅读 · 1 评论 -
Pytorch实现Darknet-53
论文地址:https://arxiv.org/pdf/1612.08242.pdfimport torchimport torch.nn as nndef Conv3x3BNReLU(in_channels,out_channels,stride=1): return nn.Sequential( nn.Conv2d(in_channels=in_channels...原创 2019-10-22 12:08:08 · 1375 阅读 · 0 评论 -
PyTorch搭建AlexNet
PyTorch搭建AlexNetAlexNet网络结构图结构详细解读AlexNet网络由8层构成,包括5层卷积层和3层全连接层。输入为224x224x3的图片,经过预处理后,变为227x227x3的大小,作为网络的输入。PyTorch搭建import torchimport torch.nn as nnimport torchvisionclass AlexNet(nn.Mo...原创 2019-07-31 11:38:49 · 672 阅读 · 0 评论 -
PyTorch搭建ShuffleNet
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices论文链接:https://arxiv.org/pdf/1707.01083.pdfPyTorch:https://github.com/shanglianlm0525/Lightweight-networkShuffleNet U...原创 2019-08-09 20:14:17 · 867 阅读 · 1 评论 -
PyTorch实现GoogLeNet
InceptionV1 module1 . 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合;2 . 卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起了;3 . 文章说很多地方都表明pooling挺有效,所以Inception里面也...原创 2019-08-30 19:29:45 · 713 阅读 · 1 评论 -
Pytorch查看模型参数并计算模型参数量与可训练参数量
查看模型参数(以AlexNet为例)import torchimport torch.nn as nnimport torchvisionclass AlexNet(nn.Module): def __init__(self,num_classes=1000): super(AlexNet,self).__init__() self.feature...原创 2019-10-08 10:50:24 · 39473 阅读 · 9 评论