
论文笔记
文章平均质量分 68
mjiansun
Live and Learn.
展开
-
Fixing the train-test resolution discrepancy论文解读
这篇论文的思想比较独特,从数据的训练集和测试集的输入分辨率着手进行分析,得出训练数据和测试数据的输入分辨率应该是不一样的,才能在图像分类上达到较好的精度。以前的大部分研究在网络输入的分辨率上基本上是一致的,然而由于训练数据和测试数据在预处理上的不同,导致了网络对图像的表观尺寸上是有偏差的,没有在测试集上达到最好的效果。表观尺寸和分辨率对性能的影响在图像分类的神经网络中,通常是接受一个固定大小的输入尺寸,比如,AlexNet的输入分辨率是224 × 224 224\times224224×224。在当转载 2021-01-08 16:36:12 · 505 阅读 · 0 评论 -
Noise2Noise: Learning Image Restoration without Clean Data
Introduction这是ICML2018的一篇论文,其由来自英伟达、阿尔托大学和 MIT 的研究者联合发表。该文章提出了一个很有意思的观点:在某些常见情况下,网络可以学习恢复信号而不用“看”到“干净”的信号,且得到的结果接近或相当于使用“干净”样本进行训练。而这项结论来自于一个简单的统计学上的观察:我们在网络训练中使用的损失函数,其仅仅要求目标信号(ground truth)在某些统计值上是“干净”的,而不需要每个目标信号都是“干净”的。Theoretical background..转载 2021-03-29 16:50:47 · 2220 阅读 · 1 评论 -
【OCR】FPGM
比较整体的网络宽度*剪枝率的小网络与每一层都裁剪掉相同剪枝率的权重的裁剪网络是相同的,而且直接训练的整体的网络宽度*剪枝率的小网络的性能不比每一层都裁剪掉相同剪枝率的权重的裁剪网络的性能差,那么fpgm剪枝感觉没起到什么作用啊!的区别,它们的不同点是HFP在每个epoch后会将卷积核直接剪掉,被剪掉的卷积核在下一个epoch中不会再出现,而SFP在每个epoch后,会将需要剪枝的卷积核仍然保留,只是将其参数置为0,依旧参与下一轮的迭代更新,在所有的epoch循环结束后再进行权重修剪。算距离的方式如下所示。转载 2022-09-07 17:09:12 · 1651 阅读 · 1 评论 -
如何写好论文的研究局限性
什么是研究局限性?每个研究都难免会有研究局限性。研究设计和研究方法等原因都可能造成研究局限性,而这些原因也会影响论文的研究结果。很多研究者为了不让审稿人及读者对该论文的价值产生负面评价,通常会尽量避免在论文中提及研究局限性。但尽管如此,我们仍然有必要在论文中清楚的说明研究中所产生的局限性,并说明此研究局限性对于论文结论造成什么样的影响,以此让审稿人及其他读者能够了解到我们已充分考虑到研究局限性。在本文中,我们提供一些写作研究局限性时应注意的要领,并且提供常见的研究局限性范例,分享我们建议使用的表转载 2022-02-16 14:42:07 · 6456 阅读 · 0 评论 -
win10+cuda10.0+pytorch1.4测试CenterNet
一、下载好 CenterNet 源码加速方式https://github.com/xingyizhou/CenterNet二、注意你需要 VS 2017,不然你后面不好玩三、build nmscd src\lib\externalpython setup.py build_ext --inplace额,你会报错滴。打开setup.py, 注释下面这句话:#extra_compile_args=["-Wno-cpp", "-Wno-unused-function"].转载 2021-02-20 15:52:00 · 565 阅读 · 1 评论 -
【YOLOV4】FPN+PAN结构
yolo4的neck结构采用该模式,我们将Neck部分用立体图画出来,更直观的看下两部分之间是如何通过FPN结构融合的。如图所示,FPN是自顶向下的,将高层特征通过上采样和低层特征做融合得到进行预测的特征图。Neck部分的立体图像,看下两部分是如何通过FPN+PAN结构进行融合的。和Yolov3的FPN层不同,Yolov4在FPN层的后面还添加了一个自底向上的特征金字塔。这样结合操作,FPN层自顶向下传达强语义特征,而特征金字塔则自底向上传达强定位特征,两两联手,从不同的主干层对不同的检测层转载 2021-02-19 09:45:35 · 10318 阅读 · 0 评论 -
LaTeX用Font Awesome的图标新版
原创 2021-02-07 20:57:17 · 3157 阅读 · 0 评论 -
【PANet】升级版Mask R-CNN
一、PANet 整体描述PANet 是基于Mask R-CNN进行改进后的网络,改进的三个点分别为:原始 Mask R-CNN 没有很好地利用低层信息。高层的 Feature maps 关注物体整体,低层的 Feature maps 关注物体的纹理图案。使用低层的信息可以对物体进行更好地定位。对此 PANet 增加了 Bottom-up Path Augmentation(整体结构图中的b. ),将低层的信息又传导到高层中去,同时减少了高层到低层的信息流通需要穿过的卷积层数。 原 RoI Pool转载 2021-01-12 15:45:35 · 646 阅读 · 0 评论 -
【AutoAugment】ImageNet准确率达85%
论文地址:https://arxiv.org/pdf/1909.13719.pdfGitHub地址:https://github.com/tensorflow/tpu/blob/master/models/official/efficientnet/autoaugment.py你的数据还不够强。玩深度学习的人都知道,AI算法大部分是数据驱动。数据的质量一定程度上决定了模型的好坏。这就有了深度学习天生的一个短板:数据不够多、不够好。而数据增强就是解决这一问题的有效办法。谷歌大脑去年提出转载 2021-01-08 16:10:31 · 1505 阅读 · 0 评论 -
【YOLOv3】自我理解与总结(三)
损失函数介绍原创 2021-01-07 11:21:39 · 282 阅读 · 0 评论 -
【待读论文】
(1)Data-efficient image Transformers(2)Inception Convolution with Efficient Dilation Search原创 2020-12-31 17:02:11 · 141 阅读 · 0 评论 -
【DeiT】Facebook开源高效图像Transformer
将自然语言处理领域主流模型 Transformer 应用在视觉领域似乎正在成为趋势。最近,Facebook 研究人员提出一项新技术——数据高效图像 Transformer (DeiT),该方法所需的数据量和计算资源更少,且能产生高性能的图像分类模型。Transformer 是自然语言处理领域的主流方法,在多项任务中实现了 SOTA 结果。近期越来越多的研究开始把 Transformer 引入计算机视觉领域,例如 OpenAI 的 iGPT、Facebook 提出的 DETR 等。最近,Faceb.转载 2020-12-30 12:09:48 · 2019 阅读 · 0 评论 -
【MEALV2】知识蒸馏提升ResNet50在ImageNet上准确度至80%+
论文:https://arxiv.org/pdf/2009.08453v1.pdf代码:https://github.com/szq0214/MEAL-V2知识蒸馏知识蒸馏是将一个已经训练好的网络迁移到另外一个新网络,常采用teacher-student学习策略,已经被广泛应用在模型压缩和迁移学习中。这里要介绍的MEAL V2是通过知识蒸馏提升ResNet50在ImageNet上的分类准确度,MEAL V2不需要修改网络结构,也不需要其他特殊的训练策略和数据增强就可以使原始ResNet50的To转载 2020-12-29 17:15:35 · 1541 阅读 · 1 评论 -
【知识蒸馏】常见的知识蒸馏方式(二)
1、Distilling the Knowledge in a Neural NetworkHinton的文章"Distilling the Knowledge in a Neural Network"首次提出了知识蒸馏(暗知识提取)的概念,通过引入与教师网络(teacher network:复杂、但推理性能优越)相关的软目标(soft-target)作为total loss的一部分,以诱导学生网络(student network:精简、低复杂度)的训练,实现知识迁移(knowledge transfe转载 2020-12-25 11:23:36 · 2009 阅读 · 0 评论 -
【知识蒸馏】带你认识深度学习中的知识蒸馏(一)
摘要:知识蒸馏(knowledge distillation)是模型压缩的一种常用的方法一、知识蒸馏入门1.1 概念介绍知识蒸馏(knowledge distillation)是模型压缩的一种常用的方法,不同于模型压缩中的剪枝和量化,知识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息,来训练这个小模型,以期达到更好的性能和精度。最早是由Hinton在2015年首次提出并应用在分类任务上面,这个大模型我们称之为teacher(教师模型),小模型我们称之为Student(..转载 2020-12-23 10:33:17 · 2043 阅读 · 0 评论 -
【稀疏卷积】Submanifold Sparse Convolutional Networks
子流形稀疏卷积网络出版时间:2019作者:Benjamin Graham, Laurens van der Maaten。 Facebook AI Research代码地址看到最近很多关于点云的网络都用到这个方法,就来读一下。摘要卷积处理的数据(比如图片)一般都是很dense的,但是有些数据是sparse的(比如点云数据,在纸上形成的笔画)。在这些稀疏数据上直接用dense的卷积网络是非常没有效率的。本文引入了一种稀疏卷积运算,该运算针对处理稀疏数据而定制,与之前的稀疏卷积网络的工作转载 2020-09-10 13:19:56 · 5725 阅读 · 2 评论 -
FPN网络详解
特征图金字塔网络FPN(Feature Pyramid Networks)是2017年提出的一种网络,FPN主要解决的是物体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小物体检测的性能。低层的特征语义信息比较少,但是目标位置准确;高层的特征语义信息比较丰富,但是目标位置比较粗略。另外虽然也有些算法采用多尺度特征融合的方式,但是一般是采用融合后的特征做预测,而本文FPN不一样的地方在于预测是在不同特征层独立进行的。一、各种网络结构对比1、通常的CN.转载 2020-08-21 14:03:59 · 2565 阅读 · 0 评论 -
【mmdetection】参数解析
图片输入大小解析1.单尺度输入:train_pipeline = [ ...... dict( type='Resize', img_scale=(1333, 800), keep_ratio=True), ...... dict(type='Pad', size_divisor=32),]实际输入缩放计算方式:max_long_edge = max(img_scale)max_short_edge =原创 2020-06-19 16:38:40 · 8756 阅读 · 7 评论 -
【YOLOV3】需要了解的点(二)
论文重点采取的有效方式(1)confidence小于0.5的都参与到loss的计算;(2)classification如果不存在男人和女人这种情况的话,可以对每个输出使用sigmoid函数,假设有80类,那么输出就是80个数,对80个数的每个值都参与loss的计算,正确的与1比较(希望为1),不正确的与0比较(希望为0);(3)输出多个尺度的,13*13,26*26,52*52的特征图,然后对每个特征图都使用anchor的操作;(4)卷积层数变深了。这几种方式无效Anchor b转载 2020-06-18 15:35:23 · 340 阅读 · 0 评论 -
【YOLOV2】简单介绍
论文理解论文提到有几个方面可以提升网络性能:(1)BN可以防止模型过拟合,增强模型的泛化能力。在文章中提到增加了模型2%的准确率;(2)预训练一个分类网络,然后使用该网络作为初始化参数,得到的检测网络会提升4%点左右;(3)使用anchor box模型的map下降了,但是召回率上升了;(4)维度聚类:a)好的先验框能得到更高的检测效果;(5)passthrough:本质其实就是特征重排,26*26*512的feature map分别按行和列隔点采样,可以得到4幅13*13*5原创 2020-06-18 15:31:36 · 407 阅读 · 0 评论 -
【YOLOV1】流程详解
You Only Look Once: Unified, Real-Time Object Detection论文:https://arxiv.org/abs/1506.02640Abstract作者提出了一种新的物体检测方法YOLO。YOLO之前的物体检测方法主要是通过region proposal产生大量的可能包含待检测物体的 potential bounding box,再用分类器去判断每个 bounding box里是否包含有物体,以及物体所属类别的 probability或者 co转载 2020-06-18 15:23:03 · 1865 阅读 · 0 评论 -
【SSD】方法解读
https://blog.youkuaiyun.com/xiaohu2022/article/details/79833786转载 2020-06-17 10:09:45 · 195 阅读 · 0 评论 -
【MaskRCNN】源码系列之开篇图
Mask-RCNN 代码实现文中代码的作者是Matterport: 代码github地址,文中详细的介绍了各个部分,以及给了demo和各个实现的步骤及其可视化。代码总体框架先贴出我对作者代码流程的理解,及其画出的流程图。 图1.代码中training的流程图 ...转载 2020-06-11 16:59:57 · 266 阅读 · 0 评论 -
【Unet++】Res50Unet++结构图
原创 2020-09-09 18:26:23 · 239 阅读 · 0 评论 -
CutMix数据增强学习
一、前言之前有一篇博客学习了mixup数据增强,对于提升模型的性能非常显著。长江后浪推前浪,这一篇CutMix数据增强居然将其推在沙滩上。简单回顾下mixup数据增强:从训练样本中随机抽取两个样本进行简单的随机加权求和,同时样本的标签也对应加权求和,然后预测结果与加权求和之后的标签求损失,在反向求导更新参数。CutMix的处理方式也比较简单,同样也是对一对图片做操作,简单讲就是随机生成一个裁剪框Box,裁剪掉A图的相应位置,然后用B图片相应位置的ROI放到A图中被裁剪的区域形成新的样本...转载 2020-05-26 14:03:13 · 1467 阅读 · 1 评论 -
【RFB_Net】算法笔记
论文:Receptive Field Block Net for Accurate and Fast Object Detection论文链接:https://arxiv.org/abs/1711.07767代码链接:https://github.com/ruinmessi/RFBNet这篇是ECCV2018关于目标检测的文章,提出了RFB Net网络用于目标检测,可以在兼顾速度的同时达到...转载 2020-04-11 16:44:03 · 362 阅读 · 0 评论 -
【YOLACT】代码解读
源码:https://github.com/dbolya/yolactnum_class是算上背景的类别,比如你的类别就一个person,那么记得此时的num_class应该为2,因为还需要算上背景啊。YOLACT的网络结构及输出YOLACT的backbone结构其中_make_layer就是常规的resnet101中的_make_layer,具体是如何操作的可以查看源码ht...原创 2020-01-20 17:31:30 · 7612 阅读 · 9 评论 -
【YOLACT】测试自己数据集
在上面已经讲过如何训练了https://blog.youkuaiyun.com/u013066730/article/details/103720215那么需要将eval_cell.py中的加 ########################################的内容进行修改,具体请看下面的代码。主要就是修改输入的文件夹,然后修改解析输入的代码。from data import CO...原创 2020-01-20 09:47:03 · 4327 阅读 · 0 评论 -
【SSD】pytorch版本的SSD测试
调试的代码源码:https://github.com/amdegroot/ssd.pytorch其中部分配置的参数请参考:https://blog.youkuaiyun.com/u013066730/article/details/103988471修改eval.py主要添加了将检测框,显示在原图上的操作。"""Adapted from: @longcw faster_rcnn_py...原创 2020-01-17 13:51:00 · 2736 阅读 · 5 评论 -
VOC数据集颜色表
类别名称 R G B background 0 0 0 背景 aeroplane 128 0 0 飞机 bicycle 0 128 0 bird 128 128 0 boat 0 0 128 bottle 128 0 128 瓶子 bus 0 128 128 大巴 car 128 128 128 cat 64 0 0 猫 chair 192 0 0 cow 64 128 0...转载 2020-01-16 14:49:48 · 1022 阅读 · 0 评论 -
【SSD】pytorch版本的SSD训练
调试的代码源码:https://github.com/amdegroot/ssd.pytorch环境:python3.7 cuda10.0 cudnn7 pytorch1.2.0 torchvision0.4.0问题1使用的是VOC,没有COCO数据,那么就需要将COCO的部分注释掉,如果不注释就会报错。解决方法将train.py中的COCO的部分直接注释掉,修改如下...原创 2020-01-15 14:22:25 · 1700 阅读 · 1 评论 -
【EfficientDet】论文解读
论文链接:https://arxiv.org/abs/1911.09070可用代码链接:(下面这个代码有可能会缺东西,记得从他给的readme的其他工程中寻找)keras:https://github.com/xuannianz/EfficientDet参考博客:https://baijiahao.baidu.com/s?id=1651514751262272881&w...转载 2020-01-09 14:21:42 · 1771 阅读 · 0 评论 -
【M2Det】编译Cython版本NMS
具体参考来自于https://github.com/MrGF/py-faster-rcnn-windows由于编译gpu版本比较麻烦,所以需要将gpu部分注释掉,只编译cpu即可(GPU版本可以根据本文章顶部链接自行修改)进入到M2Det/utils目录下,将该目录下的build.py修改为如下形式:# --------------------------------------...原创 2020-01-06 17:11:26 · 1437 阅读 · 0 评论 -
Fast Neural Style在win10上运行
fast-neural-style-master(pytorch):https://github.com/pytorch/examples/tree/master/fast_neural_style(测试的该例子)fast-neural-style-tensorflow-master(tensorflow):https://github.com/hzy46/fast-neural-style-te...原创 2019-12-27 16:10:32 · 793 阅读 · 0 评论 -
Deep photo style transfer在windows10上运行
工程地址https://github.com/LouieYang/deep-photo-styletransfer-tf环境python3.7 cuda10.0 cudnn-10.0-windows10-x64-v7.6.1.34 tensorflow-gpu1.14.0 numpy1.16.0 pillow6.2.1 scipy1.2.1 pycuda2019.1.2...原创 2019-12-27 16:03:38 · 1121 阅读 · 12 评论 -
【YOLACT】训练自己数据集
环境win10,cuda10,pytorch1.2,python3.7数据格式由于我的数据标签并不是使用labelme方式得到的,但是为了能使得代码有效运行,将我的数据都整理成如下形式:在train文件夹下有三个子文件夹image,mask,yaml。image当中保存的是rgb三通道的图像image1.pngimage2.pngimage3.png......原创 2019-12-26 18:33:52 · 14394 阅读 · 23 评论 -
YOLACT: Real-time Instance Segmentation
关于 YOLACT,目前中文互联网上的资料多数是对论文的总结。YOLACT 的源代码已经公开,下文是我在阅读之后对这个模型的理解。希望对大家——尤其是像我一样初涉图像领域的新手——有所裨益。由于个人水平有限,加上代码也没有全部看完,若有错漏,还请多多指正。YOLACT: Real-time Instance Segmentation首先分析一下论文题目。YOLACT:You Only ...转载 2019-12-24 15:54:29 · 1070 阅读 · 2 评论 -
【Detection】Single-Shot Refinement Neural Network for Object Detection
https://blog.youkuaiyun.com/qq_21949357/article/details/80642551先记录以下,等自己去调试代码的时候再来补充转载 2019-12-11 10:24:30 · 142 阅读 · 0 评论 -
医学顶级期刊
序号 英文期刊名 中文期刊名 2016年IF 2017年IF 涨跌情况 1 CA-A Cancer Journal For Clinicians 《癌》 187.040 24...转载 2019-11-29 09:42:41 · 1246 阅读 · 0 评论 -
【OpenPose】人体姿态识别项目OpenPose中文文档
https://www.jianshu.com/p/3aa810b35a5d转载 2019-11-27 16:40:50 · 1821 阅读 · 0 评论