
论文笔记
文章平均质量分 93
G5Lorenzo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Mask R-CNN
一、前言本文提出了一个概念上简单且灵活通用的目标分割框架——Mask R-CNNMask R-CNN能有效地检测图像中的目标,同时能为每个实例生成高质量的分割掩码Mask R-CNN训练简单,相对于Faster R-CNN,只需增加一个较小的开销,运行速度可达5 FPS,且很容易推广到其他任务中二、模型与方法2.1 设计思路由于Fast/Faster R-CNN和FCN的出现,使...原创 2020-02-17 15:38:21 · 500 阅读 · 0 评论 -
RetinaNet:Focal Loss for Dense Object Detection
一、前言目前的深度学习目标检测器中,One-stage的精度始终落后于two-stage本文发现其中心原因为训练过程中前景与背景类别极端的不平衡为解决该问题,本文重塑了标准交叉熵损失函数,即减少易分类样本的权重来进行平衡,提出了Focal Loss为评估所提出的损失函数的有效性,本文设计并训练了一个简单的目标检测器——RetinaNet1.1 One-stage VS Two-sta...原创 2020-02-16 15:19:04 · 322 阅读 · 0 评论 -
FPN:Feature Pyramid Networks for Object Detection
一、前言特征金字塔可用于检测不同尺度目标,但最近的深度学习目标检测器避免使用它,部分原因是它带来了极大的计算量和内存需求本文利用深度卷积网络内在的多尺度、金字塔分级来构造具有很少额外成本的特征金字塔本文开发了一种具有横向连接的自顶向下架构,称为特征金字塔网络(FPN),用于在所有尺度上构建高级语义特征映射将FPN应用于一些目标检测器(如Faster R-CNN),结果得到了...原创 2020-02-15 17:19:28 · 640 阅读 · 0 评论 -
YOLO9000: Better, Faster, Stronger
一、前言大多数目标检测方法的检测种类有限,仅能检测一小部分目标本文使用了目标分类的分层视图的方法,允许我们将不同的数据集组合在一起本文提出了一种联合训练算法,能够在检测和分类数据上训练目标检测器。利用带标签的检测图像数据集来训练网络学习能精确定位物体的能力,同时使用分类图像数据集来训练以增加鲁棒性。二、模型和方法2.1 设计思路:简化网络,以提高网络的检测速度...原创 2020-02-14 16:28:55 · 557 阅读 · 0 评论 -
R-FCN: Object Detection via Region-based Fully Convolutional Networks
一、论文内容1.1 摘要先前的基于区域的检测器(如Fast/Faster R-CNN)需要对每个区域单独应用全连接子网络,计算代价太高本文所提出的基于区域的检测器应用了全卷积,几乎在整张图上共享计算为解决图像分类中的平移不变性与目标检测中的平移变化之间的困境,本文提出了提出了位置敏感分数图本文提出的模型在PASCAL VOC数据集上展示了具有竞争力的结果,比Faster R-CNN对应...原创 2020-02-11 21:36:01 · 298 阅读 · 0 评论 -
FCN:Fully convolutional networks for semantic segmentation
一、语义分割简介1.1 什么是语义分割?语义分割:让机器实现对图像进行自动分割并识别图像中的内容如上图中,给出一张图片,机器能识别图片中的物体并分割出结果图,即把不同的物体从图像中分割出来1.2 研究意义当前应用:地理信息系统无人车驾驶医疗影像分析机器人等领域与图像分类或目标检测相比,语义分剖使我们对图像有更加细致的了解。这种了解在诸如自动驾驶、机器人以及图像搜索引擎等...原创 2020-02-10 14:01:58 · 517 阅读 · 0 评论 -
SSD: Single Shot MultiBox Detector
SSD的demo的主函数,主要过程如下:1.先对输入图像进行预处理,resize到固定尺寸2.定义SSD模型,并返回分类和定位预测层的结果3.针对feature map生成相应的anchor,即中心点的相对位置,以及相对于原图的宽高比例4.将上两步得到的分类和定位预测结果与anchor信息一并进行“处理”,得到最终的分类#coding:utf-8import osimport ma...原创 2019-12-12 10:06:19 · 469 阅读 · 0 评论 -
YOLOv1:You Only Look Once: Unified, Real-Time Object Detection
一、前期知识1.目标检测评价指标——mAP(平均准确率均值)如上图所示,有7张图片,其中有15个ground-truth,用绿色边框表示,24个检测到的对象用红色框表示,每个检测到的对象由字母A,B,…,Y表示,并具有知信度confidence上表为图中对应信息TP和FP:True Positive (TP): IOU>=阈值的检测框False Positive (FP):...原创 2019-10-27 20:54:55 · 499 阅读 · 0 评论 -
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
一、RCNN系列对比RCNN是在原图上做region proposal,即在低级特征上做region proposal,产生的推荐区域多,导致计算量大,而且因为低级特征对于图像分类辨识度不高,所以低级特征的输入使得最终的分类精度低,也就是说,它既慢又不准Faster RCNN是在高级特征图上做region proposal,高级特征图对图像分类具有很好的辨识度,从而让分类和边框回归的精度更高...原创 2019-10-20 17:15:48 · 888 阅读 · 0 评论 -
R-CNN: Region-Based Convolutional Networks for Accurate Object Detection and Segmentation
一、论文前期知识、成果及意义1.前期知识什么是目标检测?找出图像中所有感兴趣的目标(ROI—Region of Interest),确定它们的位置和大小以及类别。是计算机视觉领域的核心问题之一。分类-Classification:解决"是什么? "的问题,即给定一张图片或一段视频判断里面包含什么类别的目标。定位-Location:解决"在哪里?"的问题,即定位出这个目标的的位置。...原创 2019-10-18 15:03:43 · 846 阅读 · 0 评论 -
VGG: Very Deep Convolutional Networks for Large-Scale Image Recognition
一、论文研究背景、成果1.论文研究背景自从2012年AlexNet将深度学习的方法应用到ImageNet的图像分类比赛中并取得state of the art的惊人结果后,大家都竞相效仿并在此基础上做了大量尝试和改进1.小卷积核在第一个卷积层用了更小的卷积核和卷积stride (Zeiler & Fergus, 2013;Sermanet et al, 2014)2.多尺度训练...原创 2019-10-16 20:28:59 · 556 阅读 · 0 评论 -
AlexNet:ImageNet Classification with Deep Convolutional Neural Networks
论文背景和前期知识在数据分析中,人去做特征工程,人去分类在机器学习,人做特征工程,机器学习模型例如决策树、GBDT去做分类在深度学习中,CNN是做特征工程的,Softmax、SVM做分类LeNet——CNN+SVM(RBF)没有什么价值研究一个网络,就是要研究一个网络提取特征的能力是否强网络太深会导致的问题:1.参数过多,计算时间太长,硬件无法满足需求2.过拟合,网格退化,梯度消...原创 2019-10-16 11:27:15 · 371 阅读 · 0 评论 -
Deep learning—Yann LeCun, Yoshua Bengio & Geoffrey Hintonxi
背景知识传统方法:构建一个模式识别或机器学习系统需要领域专家的帮助设计一个特征提取器表示学习:一系列允许机器接收原始数据并自动转换成监测或分类任务能处理的形式的方法深度学习方法:多层表示的表示学习方法,由简单的非线性模块组成,上一层的转换结果作为下一层的输入继续进行转换表示,提升抽象层次深度学习的关键:特征层不是专家工程师设计的,而是使用学习算法从数据中学到的...原创 2019-09-29 21:43:50 · 661 阅读 · 0 评论 -
论文学习方法总结
论文学习方法主要内容:为什么要读论文?读哪些论文?怎么读论文?怎么写论文?一、为什么要读论文?基础技术: 论文中的Related Works可以帮助了解该领域中的主要的技术栈,追踪经典算法论文;新方向和思路: 跟上该技术领域内的最新发展思路,对当前算法存在的问题提供指导;面试: 提问领域技术的新方向,工作时需要不断接收新思路的熏陶和培养;复现: 提升编程能力、模型训练经验...原创 2019-09-27 20:19:24 · 724 阅读 · 0 评论