
深度学习小技巧
文章平均质量分 93
My小可哥
这个作者很懒,什么都没留下…
展开
-
浅谈SSIM 损失函数计算
浅谈SSIM 损失函数计算前言Structural Similarity亮度相似性对比度相似性结构相似度SSIM 实现总结前言最近研究图像重建老是看到SSIM损失函数,但是去找了那篇论文《Image Quality Assessment: From Error Visibility to Structural Similarity》挺有意思的。Structural Similarity作者把两幅图 x, y 的相似性按三个维度进行比较:亮度(luminance)l(x,y),对比度(contrast原创 2021-02-11 14:03:20 · 20589 阅读 · 8 评论 -
浅谈遮挡物的数据增强方法
浅谈遮挡物的数据增强方法前言random-erasingCutoutCutMix前言随着这几年深度学习的发展,遮挡物一直是目标检测多年以来的难题。在最近几年踊跃出几款好的对遮挡物数据增强。random-erasing->Cutout->CutMix等。random-erasingRandom Erasing的方式,将原数据集中一部分保持原样,另外一部分随机擦除一个矩形区域。我感觉伪代码的图也讲的比较好,基本对应我的代码。参数说明:1.s_l、s_h分别是需要随机擦除的矩形面积大原创 2020-09-20 20:53:12 · 5608 阅读 · 1 评论 -
浅谈改进模型小技巧----提升感受野
浅谈改进模型小技巧----提升感受野前言什么是spp?SPP-NET用于物体检测(可以不用看,我感觉没啥价值,因为太过古老)什么是RFB?什么是ASPP?前言想写写yolov4的,但是想把yolov4中的小技巧介绍一部分小技巧介绍完在介绍吧!我们来看看下面这张图,我感觉特别精彩,很好的诠释了yolov4的思想。什么是spp?为什么CNN需要固定的输入呢?CNN网络可以分解为卷积网络部分以及全连接网络部分。我们知道卷积网络的参数主要是卷积核,完全能够适用任意大小的输入,并且能够产生任意大小的输出。原创 2020-09-16 12:05:29 · 8209 阅读 · 1 评论 -
浅谈小技巧标签平滑-------Label Smoothing
浅谈小技巧标签平滑-------yolov4前言什么是交叉熵?1.信息量2.熵3.交叉熵标签平滑前言今天来聊下yolov4中引进的标签平滑小技巧吧!标签平滑让我想到了,90分就优秀了,为啥还要追求100分?什么是交叉熵?1.信息量信息量来衡量一个事件的不确定性,一个事件发生的概率越大,不确定性越小,则其携带的信息量就越小。设X是一个离散型随机变量,其取值为集合X=x0,x1,…,xn ,则其概率分布函数为p(x)=Pr(X=x),x∈X,则定义事件X=x0 的信息量为:当p(x0)=1时,该原创 2020-09-14 15:44:19 · 6193 阅读 · 4 评论 -
浅谈目标检测中常规的回归loss计算----------最新yolov4中ciou计算
浅谈yolov4中小技巧--回归loss计算ciou前言目标检测loss的发展史什么是Smooth L1 Loss前言今天我们来看下目标检测里面提出的CIOU。目标检测loss的发展史在目标检测中其演进路线是Smooth L1 Loss --> IoU Loss --> GIoU Loss --> DIoU Loss --.>CIoU Loss什么是Smooth L1 Loss首先看L1 loss 和 L2 loss 定义:写成差的形式,f(x) 为预测值, Y原创 2020-09-11 13:05:51 · 5913 阅读 · 6 评论 -
浅谈神经网络改进小技巧----学习率衰减
浅谈神经网络改进小技巧----学习率衰减前言什么是学习率衰减分段常数衰减指数衰减自然指数衰减多项式衰减余弦衰减前言今天我们来谈下学习率衰减,利用学习率衰减来的到我更好的预测效果。什么是学习率衰减在训练神经网络时,使用学习率控制参数的更新速度.学习率较小时,会大大降低参数的更新速度;学习率较大时,会使搜索过程中发生震荡,导致参数在极优值附近徘徊.为此,在训练过程中引入学习率衰减,使学习率随着训练的进行逐渐衰减.在模型优化中,常用到的几种学习率衰减方法有:分段常数衰减、指数衰减、多项式衰减、自然指原创 2020-09-09 21:53:04 · 4759 阅读 · 0 评论 -
浅谈Attention机制的作用
浅谈注意力机制的作用前言什么是注意力机制对于时间步的注意力机制(我感觉cv里面叫通道注意力,不知道我)前言Attention机制是很好的一个东西,Attention机制在近几年来在图像,自然语言处理和cv等领域中都取得了重要的突破,被证明有益于提高模型的性能。让我们一起来了解下注意力机制吧。什么是注意力机制所谓Attention机制,便是聚焦于局部信息的机制,比如,图像中的某一个图像区域。随着任务的变化,注意力区域往往会发生变化。面对上面这样的一张图,如果你只是从整体来看,只看到了很多人头,但原创 2020-09-09 11:47:07 · 28561 阅读 · 0 评论 -
浅谈yolov4中的一部分数据增强
浅谈yolov4中的数据增强前言数据增强数据增强步骤1.对图片进行水平翻转2.对图片进行缩放3.对图片HSV色域变换4. Mosaic数据增强5. 总代码前言在接下来的几天,我将解读yolov4,yolo系列一直是很火的目标检测算法。我特别喜欢yolov4。而今天我们来谈下数据增强。数据增强计算机视觉中的图像增强,是人为的为视觉不变性(语义不变)引入了先验知识。数据增强也基本上成了提高模型性能的最简单、直接的方法了。首先增强的样本和原来的样本是由强相关性的(裁剪、翻转、旋转、缩放、扭曲等几何变换,还原创 2020-09-08 20:39:49 · 3423 阅读 · 2 评论 -
说说soft-nms和nms那些事
说说经典非极大抑制前言什么是非极大抑制?传统的非极大抑制产生的问题?soft-nms前言今天来介绍下非极大抑制。什么是非极大抑制?目标检测算法会输出多个检测边框,尤其是在真实目标周围会有很多置信度高的检测边框。为了去除重复的检测边框,达到每个物体有且只有一个检测结果的目的。非极大值抑制(Non-maximum suppression,NMS)是一种获取局部最大值,抑制非极大值的算法,在计算机视觉中有着广泛的应用。其核心思想是一个迭代-遍历-消除的过程,重叠率大于固定阈值的低分框会被高分框抑制。原创 2020-09-04 22:28:50 · 2820 阅读 · 0 评论