
论文
mrcoderrev
C
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
目标检测骨干网发展
111原创 2019-11-24 11:52:44 · 838 阅读 · 0 评论 -
VGG:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION ImageNet2014 定位第一,分类第二 "VGG"代表,牛津大学的Oxford Visual Geometry Group VGG 的特点: (1)小卷积核:作者将卷积核全部替换为3*3,极少用了1*1 (2)小池化核:相比AlexNet的3*3的池化核,V...原创 2019-12-13 19:51:09 · 370 阅读 · 0 评论 -
LeNet-5 手写字体识别模型
手写字体识别模型LeNet5诞生于1994,是最早的神经网络之一。 现在常用的LeNet-5(卷积池化当作一层的话,共5层)结构和Yann LeCun教授在1988年提出的结构在某些地方有区别,比如激活函数的使用,现在一般采用ReLU作为激活函数,输出层一般选择softmax。(论文RBF) 性质:随着网络越来越深,图像的高度和宽度在缩小,但channel数量一直在增加。 局限性:CNN能够从...原创 2019-11-23 17:05:56 · 1723 阅读 · 0 评论 -
AlexNet:ImageNet Classification with Deep Convolutional Neural Networks
这个神经网络有6000万参数,和650000个神经元,包含5个卷积层(某些卷积层后面带有池化层)和3个全连接层,最后一个是1000维的softmax。 为了防止过拟合,使用了dropout的正则化方法。 使用了120万高分辨率图像分到1000个不同的类别中。 使用了非饱和的神经元并对卷积操作进行了非常有效的GPU实现。 cnn的前面部分,卷积-激活函数-降采样-标准化。 AlexNet论文翻译—...原创 2019-12-01 10:14:16 · 273 阅读 · 0 评论 -
YOLOv3: An Incremental Improvement
摘要 (1)比V2体积更大,精度更高,但是速度仍有保障 (2)输入320/*320的图片后,v3能在22ms内处理完成,并取得28.2mAP,精度和SSD相当,但速度快上3倍。 介绍 更新 2.1边框预测 V3用逻辑回归预测每个边界框的objective score。如果当前预测的边界框比之前的更好的与ground truth对象重合,那他的分数就是1,如果当前的预测不是最好的但是和ground ...原创 2019-11-06 16:12:07 · 207 阅读 · 0 评论 -
YOLO9000: Better, Faster, Stronger
1.介绍 (1)大多数检测方法受限于小目标 (2)YOLOv2可以检测9000多种不同的物体 更好 (1)由于YOLO的缺点,我们的目标是提高召回和定位,同时保持分类的准确性。 (2)我们不是扩展我们的网络,而是简化我们的网络,然后使表示更容易学习。 ...原创 2019-10-27 10:02:12 · 287 阅读 · 0 评论 -
You Only Look Once: Unified, Real-Time Object Detection
摘要 (1)将目标检测的设计看做是一个回归问题,从空间上分割边界框和类别的概率。 (2)在一次评估中,仅用一个神经网络就能预测整张图像的边界框和类别概率。 (3)特点: 1.检测速度非常快。 2.与其他实时检测系统相比能实现较高的mAP。 3.与其他先进的检测模型相比,定位误差更高,但不太可能将背景检测成目标(FP)。 4.能够学到非常泛化的表示。 1 介绍 (1)RPN网络的一些弊端: 1.使用...原创 2019-10-13 23:52:59 · 432 阅读 · 0 评论 -
目标检测20年
00原创 2019-10-18 10:47:57 · 299 阅读 · 0 评论 -
目标检测历史进展
早期目标检测流程 (1)候选框生成 (2)特征向量提取 (3)区域分类 DeepLearning 时代目标检测 (1)二阶检测器(如CNN,(R-CNN)及其变体) 首先使用候选框生成器生成稀疏的候选框集,然后使用深度卷积网络编码生成候选框的特征向量,最后使用区域分类器预测候选框区域类别 (2)一阶检测器(如YOLO) 直接对特征图像上的每个位置进行类别预测 二阶检测器性能更优,一阶...原创 2019-10-18 10:47:36 · 577 阅读 · 0 评论