
CNN
文章平均质量分 58
农夫山泉2号
关于交流可以发邮件:778961303@qq.com
展开
-
【CNN】——双线性插值和conv_transpose2d
conv transpose2dcode from:mmflow双线性插值转成反卷积操作class Upsample(nn.Module): """Upsampling module. Args: scale_factor (int): Scale factor of upsampling. channels (int): Number of channels of conv_transpose2d. """ def __init.原创 2021-12-17 13:43:39 · 639 阅读 · 0 评论 -
【CNN】——RMNET推理时去掉残差模块(代码解析)
RMNet推理去除残差结构让ResNet、MobileNet、RepVGG Great Again原创 2021-12-09 14:59:27 · 1719 阅读 · 1 评论 -
【DNN】——多尺度注意力
深度学习,多尺度注意力前面有空间(通道),pixel-wise注意力机制,又出了多尺度注意力机制。后续附上代码。原创 2021-11-20 23:25:36 · 2136 阅读 · 0 评论 -
【CNN】——Depthwise卷积与Pointwise卷积
转载自:https://yinguobing.com/separable-convolution/#fn2请读原文卷积神经网络在图像处理中的地位已然毋庸置疑。卷积运算具备强大的特征提取能力、相比全连接又消耗更少的参数,应用在图像这样的二维结构数据中有着先天优势。然而受限于目前移动端设备硬件条件,显著降低神经网络的运算量依旧是网络结构优化的目标之一。本文所述的Separable Convolution就是降低卷积运算参数量的一种典型方法。常规卷积运算假设输入层为一个大小为64×64像素、三通道彩色.转载 2021-11-15 17:12:41 · 1498 阅读 · 0 评论 -
Decoupled Dynamic Filter Networks
转载自:https://www.cnblogs.com/liuyangcode/p/14755924.html对depth-wise的改进,将卷积核的参数改为根据输入变化的方式Introduction卷积缺点在于:内容不变,计算量高动态filter可以根据内容自适应,但是会提高计算量。depth-wise卷积很轻量,但是会降低准确度提出的DDF可以处理这两个缺点,受attention影响,将depth-wise的动态卷积核解耦成空间和channel上的动态filterMethod其实.转载 2021-06-25 15:01:06 · 1281 阅读 · 1 评论 -
【CNN】——im2col+pack+sgemm视频
文章可参考:https://blog.youkuaiyun.com/u011622208/article/details/116784421?spm=1001.2014.3001.5501视频原创 2021-05-16 15:28:50 · 314 阅读 · 0 评论 -
【CNN】——矩阵乘法优化
转载自:通用矩阵乘(GEMM)优化与卷积计算代码参考:BBuf/how-to-optimize-gemm简介:本文简要介绍通用矩阵乘(GEMM,General Matrix Multiplication)优化的基本概念和方法、QNNPACK 对特定场景的矩阵乘的优化方法、以及用 GEMM 优化神经网络中卷积计算的一点方向。1. native第一种方式就是通用矩阵乘(下文简称 GEMM)的一般形式是 = C=AB, 其中 A 和 B 涵盖了各自转置的含义。图一是矩阵乘计算中为计算一个输出点所要.转载 2021-05-14 17:07:32 · 2934 阅读 · 0 评论 -
【CNN】——EfficientNet转onnx转tensorrt的注意事项
EfficientNet, tensorrtCode想着将efficientnet转到tensorrt上推理,加入到benchmark库中,发现Efficientnet的输入上做了区别于conv2d的非规则池化,原始代码如下:class Conv2dStaticSamePadding(nn.Conv2d): """2D Convolutions like TensorFlow's 'SAME' mode, with the given input image size. Th.原创 2021-04-06 11:31:27 · 1518 阅读 · 2 评论 -
【CNN】——涨点模块SE,CBAM,CA对比
code:https://github.com/chenjun2hao/dler.collection涨点模块的对比对比测试SE通道注意力CBAM通道注意+空间注意力Coordinate Attention,个人认为是一种通道注意力+x方向空间+y方向空间注意力机制。其思路很像Strip Pooling1. 参数对比这里采用同样的输入,同样的输入,输出通道,同样的中间过渡通道。统计三个模块的浮点数计算量与参数量。Modulemacs/flopsparamsSE.原创 2021-03-08 16:43:04 · 6908 阅读 · 5 评论 -
【项目推荐】——纯cuda写cnn架构
项目:cuda-neural-network,采用纯cuda实现cnn的训练,在mnist上做了实验。可以用与学习卷积神经网络。原创 2020-12-23 17:22:12 · 1363 阅读 · 2 评论 -
多标签分类map计算
文章目录1. 范围2. AP的计算3. 实例1. 范围图像的多标签分类中,需要用二元交叉熵损失函数,同时评价标准中用map(mean average precision),计算map则要计算ap,AP衡量的是学出来的模型在每个类别上的好坏,mAP衡量的是学出的模型在所有类别上的好坏,得到AP后mAP的计算就变得很简单了,就是取所有AP的平均值。2. AP的计算可以参考多标签图像分类任...原创 2019-10-15 16:03:10 · 5533 阅读 · 9 评论 -
CNN图像多标签分类
关键点网络部分在神经网络的最末端将softmax激活函数改为sigmoid激活函数。将损失函数由分类交叉熵替换为二元交叉熵。正像是一个神经网络没法预测出一个它未曾训练过的类,你的神经网络没法预测出它未曾见过的多类标签组合。这个特性是由于神经网络内部神经元的激活函数。如果你的神经网络同时经过:(1)黑色裤子(2)红色衬衫的训练,现在你希望预测“红色裤子”(你的数据集中没有“红色...转载 2019-10-14 15:00:44 · 5353 阅读 · 0 评论 -
CVPR 2019细粒度图像分类竞赛中国团队DeepBlueAI获冠军 | 技术干货分享
作者:熊猫人pentaa链接:https://www.zhihu.com/question/331320468/answer/727015760来源:知乎这是一篇冠军成员的文章,更加详细,因为这篇文章不是在知乎里发的,可能不太好放链接,你可以直接复制文章标题【CVPR 2019细粒度图像分类竞赛中国团队DeepBlueAI获冠军 | 技术干货分享】到BD搜索看看。为了方便大家看,我复制了文章...转载 2019-10-10 16:52:31 · 2589 阅读 · 8 评论 -
千万不要用efficientnet做bone net
前面有写过一篇文章convolution backbone network——EfficientNet解读,说efficientnet很好,然而最近用他做bonenet的时候,发现太消耗GPU显存了,efficient_b4在1080ti测试都out of memorey 了,所以不推荐用,还是用用resnet50吧最后上一张efficient的结果对比图,看看就好了。...原创 2019-08-14 08:41:41 · 8548 阅读 · 10 评论 -
convolution backbone network——EfficientNet解读
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks单位: 谷歌摘要: 卷积神经网络(ConvNets)通常是在固定资源预算下开发的,如果有更多可用资源,则可以按比例放大以获得更高的准确性。在本文中,我们系统地研究模型缩放并确定仔细平衡网络深度,宽度和分辨率可以带来更好的性能。基于这一观察,我们提出了一...原创 2019-05-31 18:43:05 · 3221 阅读 · 0 评论