【论文】Fast RCNN


【论文】Ross Girshick. Fast R-CNN. (pdf


Why is Fast RCNN

RCNN 存在的问题:

  • 训练分多阶段进行
    (1)fine-tune ConvNet;(2)fit SVMs to CovNet features;(3)learn bbox regression
  • 训练耗时、占内存
    从磁盘读出图片然后再对 object proposal 提取特征
  • 测试时检测速度慢
    测试时对每张图片的每个 object proposal 提取特征,每张图片提取 2k 个 object proposal

SPPnets 在 RCNN 的基础上添加了一些共享计算的方法(sharing compution)提高了 RCNN 的速度:

  • SPPnets 对整张图像计算特征向量,然后根据这个特征向量为每个 object proposal 做分类
  • 对特征图上对应 proposal 的位置使用最大池化降维得到的一个固定维度的小特征图
  • 对不同大小的输出做空间金字塔在一起形成 proposal 对应的特征

在这里插入图片描述
但是,SPPnets 还是存在一些和 RCNN 一样的问题——分阶段寻训练、特征写回磁盘等等

相比较之下,Fast RCNN 有如下的有点:

  • 检测率高
  • 一步训练,多任务损失
  • 训练更新整个网络
  • 不使用磁盘存储特征

Fast RCNN architecture

其工作流程为:

  1. 对整张图片做卷积提取特征
  2. 每个 object proposal 经过 RoI 池化得到一个固定大小的特征向量
  3. 特征向量经过 softmax 预测 top-K 的得分,外加一个背景分类
  4. 对每一类做 bbox regression 产生 4 个精确定位值

RoI pooling layer

RoI pooling 将 RoI 在特征图上的有效的部分通过最大池化压缩为一个固定大小的小特征图( H × W H\times W H×W,e.g. 7 × 7 7\times7 7×7), H , W H,W H,W 作为超参数通过学习得到

每一个 RoI 对应特征图上一个矩形窗口, ( r , c , h , w ) (r,c,h,w) (r,c,h,w) 给出具体的位置, ( r , c ) (r,c) (r,c) 表示左上角的位置, ( h , w ) (h, w) (h,w) 表示宽高。RoI 降维的时候,根据大小为 ( h / H , w / W ) (h/H,w/W) (h/H,w/W) 的子窗口做最大池化

Fine-tuning for detection

Multi-task loss

softmax 分支输出 K + 1 K+1 K+1 类的预测得分 p = ( p 0 , ⋯   , p K ) p=(p_0,\cdots,p_K) p=(p0,,pK)(including background class)

bbbox regression 分支输出 t k = ( t x k , t y k , t w k , t h k ) t^k=(t^k_x,t^k_y,t^k_w,t^k_h) tk=(txk,tyk,twk,thk),位置回归只对 K K K 个物体分类进行,background class 不计算位置回归

于是,多任务损失就可以写做 L ( p , u , t u , v ) = L c l s ( p , u ) + λ [ u ⩾ 1 ] L l o c ( t u , v ) L(p, u, t^u, v)=L_{cls}(p, u)+\lambda[u\geqslant1]L_loc(t^u,v) L(p,u,tu,v)=Lcls(p,u)+λ[u1]Lloc(tu,v) 其中, u u u 是 ground-truth class, t u t^u tu 是 bbox regression predictive tuple t u = ( t x u , t y u , t w u , t h u ) t^u=(t^u_x,t^u_y,t^u_w,t^u_h) tu=(txu,tyu,twu,thu) v v v 是 ground-truth bbox regression target ( v x , v y , v w , v h ) (v_x,v_y,v_w,v_h) (vx,vy,vw,vh) [ u ⩾ 1 ] [u\geqslant1] [u1] 为示性函数, u = 0 u=0 u=0 表示背景分类不纳入回归计算, λ \lambda λ 作为比例系数平衡分类和回归的贡献

L l o c a ( t u , v ) L_{loca}(t^u,v) Lloca(tu,v) 定义为 L l o c a ( t u , v ) = ∑ i ∈ { x , y , w , h } s m o o t h L 1 ( t i u − v ) L_{loca}(t^u,v)=\sum_{i\in\left\{x,y,w,h \right\}}smooth_{L_1}(t_i^u-v) Lloca(tu,v)=i{x,y,w,h}smoothL1(tiuv) 其中 s m o o t h L 1 ( x ) = { 0.5 x 2 i f   ∣ x ∣ < 1 ∣ x ∣ − 0.5 o t h e r w i s e smooth_{L_1}(x)=\left\{\begin{matrix} 0.5x^2& if\ |x|<1 \\ |x|-0.5& otherwise \end{matrix}\right. smoothL1(x)={0.5x2x0.5if x<1otherwise

Mini-batch

Fast RCNN 训练时随机梯度采用分层抽样的方法,即抽取 N N N 张图片,每张图片有 R / N R/N R/N 个 RoI,于是,一个 mini-batch 总共有 R R R 个样本

其中,75% 的 RoI 与 ground-truth box 的 IoU 大于 0.5,75% 的 IoU 在 [ 0.1 , 0.5 ) [0.1, 0.5) [0.1,0.5) 之间,属于背景分类

Back propagation through RoI pooling layers

x i ∈ R x_i\in\mathbb R xiR 表示第 i i i 个激活到 RoI poolig 的输入, y r j y_{rj} yrj 表示第 r r r 个 RoI 在 第 j j j 层上的输出。RoI pooling 计算最大池化, y r j = x i ∗ ( r , j ) y_{rj}=x_{i^*(r, j)} yrj=xi(r,j) i ∗ ( r , j ) = a r g m a x i ′ ∈ R ( r , j )   x i ′ i^*(r, j)=\underset{i'\in\mathcal R(r,j)}{argmax}\ x_{i'} i(r,j)=iR(r,j)argmax xi R ( r , j ) \mathcal R(r,j) R(r,j) 表示 y r j y_{rj} yrj max pooling 对应的子窗口

于是, RoI pooling layer 的反向传播就可以定义为下面的形式 ∂ L ∂ x i = ∑ r ∑ j [ i = i ∗ ( r , j ) ] ∂ L ∂ y r j \frac{\partial L}{\partial x_i}=\sum_r\sum_j[i=i^*(r, j)]\frac{\partial L}{\partial y_{rj}} xiL=rj[i=i(r,j)]yrjL

这个公式很好理解,还记得 max pooling 的反向传播吗?max pooling 的反向传播可以简单理解为将梯度只沿最大的数回传,其实 RoI pooling 也是这样

请添加图片描述
通过上面图也很好理解,一个 x i x_i xi 可能对应几个不同的 y r j y_{rj} yrj,因为 RoI 之间存在重叠情况

truncated SVD for faster detection

如果是一个普通的分类网络,那么全连接层的计算应该远不及卷积层的计算。但是,针对物体检测任务,Fast RCNN 在 ROoI pooling 后得到的每个region proposal 都要经过几个全连接层,这使得全连接层的计算占网络的计算将近一半,如下图,所以作者采用 SVD 分解来简化全连接层的计算

在这里插入图片描述

一层的权重矩阵 W W W 的大小为 u × v u\times v u×v,可以通过下面公式近似计算 W ≈ U ∑ t V T W\approx U\sum_tV^T WUtVT 其中, U U U 是一个 u × t u\times t u×t 的矩阵包含 W W W 的 first t t t left-singular vectors, ∑ t \sum_t t 是一个 t × t t\times t t×t 的对对角矩阵,包含 W W W 的 top signular value, V V V 是一个 v × t v\times t v×t 的矩阵包含 W W W 的 first t t t right-singular vectors

于是,通过 SVD 分解,参数量从 u v uv uv 降到了 t ( u + v ) t(u+v) t(u+v),如果 t ≪ m i n ( u , v ) t \ll min(u,v) tmin(u,v) 这样做是非常有意义的

Why Fast RCNN works

为什么 Fast RCNN 的检测率更高?

Fast RCNN 对整张图像做卷积提取特征,然后再是在特征图上框出 RoI,这样前向传播有一个更大的感受野,也能更加有效地更新整个网络的参数,这也就是作者说的 feature sharing during training

之前的 RCNN 和 SPPnets 并不是这样做的,它们从不同的图像中取得 RoI 放入网络进行训练。但是,事实上每一个 RoI 都有可能有一个很大的感受野,这个感受野可能覆盖整张图片。于是,这就导致了模型在反向传播时更新效率很低

为什么 Fast RCNN 的检测速度更快?

每个 RoI 是从已经卷积好的特征图上抽取得到,然后经过 RoI polling 和一些全连接就可以进行分类和回归,同时卷积层使用 SVD 分解也在一定程度上加快了全连接层的计算

下面是 Fast RCNN 的训练过程和测试过程
在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值