
深度学习
沐风大大
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文阅读笔记之标签平滑
论文题目:When Does Labels Smoothing Help?(来自谷歌大脑)目录一、标签平滑1. 什么是标签平滑二、主要工作二、可视化一、标签平滑1. 什么是标签平滑二、主要工作平滑标签能够防止神经网络变得过于自信,标签平滑技术被很多先进的网络所使用。(1)对标签平滑如何提高网络的泛化能力进行了可视化论证(2)标签平滑具有隐式的网络校正功能(3)在知识蒸馏的情况下,不使用标签平滑二、可视化...原创 2020-12-21 20:55:28 · 953 阅读 · 1 评论 -
深度学习中的数据增强方法之FMix
论文题目:FMix: Enhancing Mixed Sample Data Augmentation-2020官方代码:FMix-Pytorch 数据增强方法之FMix一、摘要二、介绍2.1 MixUp和CutMix方法的优缺点2.2 FMix方法三、方法四、代码实现4.1 计算lambda值4.2 生成低频图像4.3 二值图像五、实验结果一、摘要近几年,样本融合的数据增强方法获得了越来越多的关注,比如一些很成功的变体-MixUp和CutMix。受到CutMix方法的启发,我们提出了FMix方法原创 2020-12-15 19:22:45 · 3737 阅读 · 0 评论 -
论文阅读笔记之MobileNetV2
论文题目: MobileNetV2: Inverted Residuals and Linear Bottlenecks论文代码: MobileNetV2——Pytorch版本目录摘要一、介绍二、相关工作三、深度可分离卷积3.1 常规卷积3.2 Depthwise and Pointwise Convolution四、线性瓶颈五、反向残差六、模型结构摘要在本文中,我们提出了一个新的移动架构——MobileNetV2。同时,我们也描述了一种应用这些移动模型到目标检测的有效方法——SSDLite。另外,原创 2020-12-13 13:21:59 · 984 阅读 · 0 评论 -
深度学习中的数据增强方法之CutMix
目录CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features摘要Mixup、Cutout和CutMix三种数据增强方法CutMix算法中涉及到的公式对应的代码讨论带有CutMix的模型学习到了什么?CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features作者在论文中提出了一种新的原创 2020-12-10 16:33:54 · 3272 阅读 · 0 评论 -
卷积层提取的特征具有平移不变性
1. 什么是不变性不变性是指目标发生了变换,但是你依然可以识别出来。对于图像处理任务来说,这是一种很好的特性。图像中的目标即使被平移、旋转或者缩放,模型都可以识别出来图像中的目标。不变性有以下几种类型:平移不变性;旋转不变性;尺度不变性;光照不变性。对于图像分类任务: 平移不变性就是图像中的目标不管被移动到哪个位置,模型给出的标签都是相同的。除此之外,还有一个对应的概念:平移同变性。是指:在图像的目标监测中,如果输入图像中的目标进行了平移,那么最终检测出来的候选框应该也相应的移动,这就是同时改变。转载 2020-10-02 17:25:00 · 2727 阅读 · 0 评论 -
卷积的变种之分组卷积
分组卷积介绍分组卷积最初是在AlexNet网络中出现的,主要为了解决单个GPU无法处理含有大量计算量和存储需求的卷积层这个问题。目前,分组卷积多被用于构建用于移动设备的小型网络模型。例如深度可分离卷积。原理在介绍原理之前,需要放上一张经典的图示(图片来源)。其中,最上面的是传统卷积操作的示意图,下面的是分组卷积操作的示意图。对分组卷积操作的说明:既然是分组卷积,肯定是需要对输入特征图进行分组,例如:将输入特征图根据通道数分成g组,则每组输入特征图的尺寸为 HW(c1/g)HW(c_1/转载 2020-09-28 20:57:56 · 1011 阅读 · 0 评论 -
map()方法在分类任务中的应用
在已知右边表示label的情况下,例如 :0表示正常(CN),1表示异常(AD)。要想满足提交的结果格式,需要将0-CN,1-AD对应起来。利用map()方法实现:pd['label'] = pd['label'].map({1:'AD', 0:'CN'})通过上述代码实现第二幅图片的结果...原创 2020-08-08 10:33:47 · 266 阅读 · 0 评论 -
Xception中的Depthwise卷积和Pointwise卷积
Depthwise卷积和Pointwise卷积构成了Depthwise Separable Convolution(Xception论文地址),该结构相比于常规卷积,其参数量和运算成本较低,常常出现在MobileNet等轻量级结构中。Depthwise Separable Convolution它将一个完成的卷积运算分成两步完成,即DW和PW。Depthwise ConvolutionDW卷积中: 一个卷积核负责一个channel。输入通道数等于输出通道数,即卷积核的数量等于输入特征图的通道数。转载 2020-06-09 22:00:33 · 326 阅读 · 0 评论