
小知识点合集
文章平均质量分 54
菜菜子hoho
一枚菜菜子
展开
-
【个人笔记】python常用语句
Ubuntu16.04+Pytorch1.4.0+cuda10.0的pip安装:pip install torch===1.4.0 torchvision===0.5.0 -f https://download.pytorch.org/whl/torch_stable.htmlPytorch1.6.0安装:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple torch==1.6.0 torchvision==0.7.0 -f https:/原创 2022-04-28 16:34:39 · 678 阅读 · 0 评论 -
CVPR-2018- BAM: Convolutional Block Attention Module 阅读笔记
论文地址:https://arxiv.org/abs/1807.06514定义:Bottleneck Attention Module (BAM)通过两个分离的路径 channel和spatial, 得到一个Attention Map。并且BAM可以与任何向前传播卷积神经网络集成。整体过程公式化:对于给定的输入特征映射F∈RC×H×W, BAM推断出一个三维注意映射M(F)∈RC×H×W。细化后的特征图f’计算为:① 通道注意力:W0∈ RC/r×C, b0∈ RC/r, W1∈原创 2021-11-02 20:31:08 · 297 阅读 · 0 评论 -
ECCV-2018- CBAM: Convolutional Block Attention Module 阅读笔记
论文地址:https://scholar.google.com/scholar?hl=zh-CN&as_sdt=2005&sciodt=0%2C5&cites=12328462444653843486&scipsc=&q=CBAM%3A+Convolutional+Block+Attention+Module&btnG=代码地址:https://github.com/Jongchan/attention-module定义:卷积块注意模块(CBAM)是一原创 2021-11-01 21:38:18 · 511 阅读 · 0 评论 -
ResNeXt网络架构
论文地址:https://arxiv.org/abs/1611.05431(2017CVPR)论文代码:https://github.com/facebookresearch/ResNeXt定义:ResNeXt采用了VGG/ResNets的重复层策略,同时以一种简单、可扩展的方式利用分裂-转换-合并策略,是一个用于图像分类的简单、高度模块化的网络结构。ResNet和ResNeXt模块结构图:ResNeXt聚合变换公式:ResNeXt的等效构造块:深度为2的ResNeXt模块及其等效模块构原创 2021-10-29 21:05:09 · 794 阅读 · 0 评论 -
对Pytorch中NLLLoss和CrossEntropyLoss的理解与推导
nn.NLLLoss:负对数似然损失函数(Negative Log Likelihood)nn.CrossEntropyLoss:交叉熵损失函数两者关系:CrossEntropyLoss由NLLLoss和LogSoftMax结合而来。具体理解推导公式过程如下:原创 2021-09-13 09:22:22 · 349 阅读 · 0 评论 -
扩张卷积(dilated convolution)
【对扩张卷积的学习记录】ICLR-2016-Dilated Convolution:MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS论文地址:https://arxiv.org/abs/1511.07122代码地址:https://github.com/fyu/dilationhttps://github.com/bordesf/dilation论文动机:为了使卷积网络更适用于密集预测,作者开发了一个在不损失分辨率和覆盖情况下扩展原创 2021-07-09 13:12:13 · 3308 阅读 · 0 评论 -
ResNet (Residual Networks 残差网络)
【对残差网络的学习记录】目录【对残差网络的学习记录】定义残差块(Residual block)普通网络(Plain Network)残差网络(Residual Networks)ResNet50基本构成结构与理解残差网络解决网络退化的原理残差网络解决梯度消失的原理参考定义残差网络(Residual Networks)是一种卷积神经网络,其内部使用了跳跃连接,由大量的残差块组成,这缓解了深度神经网络中增加深度带来的梯度消失和梯度爆炸问题,由此可以利用残差网络训练很深很深的网络。残差块(Residual原创 2021-06-28 17:23:51 · 4377 阅读 · 3 评论 -
什么是感受野(receptive field)?
【对感受野的学习记录】定义:感受野用来表示网络内部的不同神经元对原图像的感受范围的大小,或者说,convNets(cnn)每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部连接。神经元感受野的值越大表示其能接触到的原始图像范围就越大,也意味着它可能蕴含更为全局,语义层次更高的特征;相反,值越小则表示其所包含的特征越趋向局部和细节。因此感受野的值可以原创 2021-06-26 11:13:11 · 1528 阅读 · 0 评论 -
RPN(Region Proposal Network)区域生成网络
【对RPN的学习记录】定义:Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN就是用来提取候选框的网络。RPN第一次提出是在Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks论文中,用于目标检测。它是一个完全卷积的网络,它可以同时预测每个位置上的对象界限和对象分数。后来由SiamRPN开始应用于目标追踪。RPN的网络架构:工作原理:首先,对输入图的原创 2021-06-24 16:30:27 · 1326 阅读 · 0 评论