第三十九周学习笔记

这是第三十九周学习笔记,主要记录了RCNN论文阅读情况。该论文解决目标检测发展停滞问题,采用在区域建议中应用卷积神经网络等方法,提升了mAP,速度快且内存占用小。还提及一些名词,探讨不直接用微调后CNN分类的原因。本周完成论文阅读,opencv3学习到75%,下周将继续相关学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

第三十九周学习笔记

RCNN论文阅读笔记

原文:Rich feature hierarchies for accurate object detection and semantic segmentation
时间:2014年

文章解决了什么问题

目标检测发展停滞,通过复杂的ensemble模型才能勉强提高一些精度

用了什么方法

两个 insights

  • 在bottom-up region proposals中应用卷积神经网络(AlexNet)
  • 提出当标签数据少的时候训练神经网络的模式——“supervised pre-training/domain-specific fine-tuning”

三个模块

  • category-independent的region proposals
  • 提取特征的 large convolutional neural network,在ImageNet上pre-train,然后在目标检测数据集上fine-tune
  • 对每个类的SVM二分类器
    在这里插入图片描述

效果如何

  • 在VOC 2010 test上将mAP提升到了53.7%,在VOC 2013上mAP为31.4%,第二OverFeat是24.3%
  • 快 13s/image on a GPU 53s/image on a CPU
  • 内存占用小,用CNN提取4096维特征,占用的内存小

存在什么不足

?

其他

一些名词
  • PASCAL VOC dataset
  • DPM
  • bounding box regression
  • selective search
  • hard negative mining method
为什么不直接使用fine-tune之后的CNN来进行分类?

作者做了这样的实验,在VOC2007上mAP从54.2%降低到了41.3%,作者推测可能因为fine-tune时给的数据的定位可能没有做的很好

本周小结

  • 论文阅读完成
  • opencv3到75%完成

下周任务

  • 论文阅读
  • 继续学习opencv3上册到100%
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值