【论文】YOLOv2

部署运行你感兴趣的模型镜像

这里只简要介绍一下YOLOv2,谈谈想法。

关于YOLOv2,下面的这篇介绍的已经很详尽了:

https://www.jianshu.com/p/032b1eecb335

首先罗列一些它做了什么:

 从上往下数:

1.BN,在所有的卷积层后面添加BN层,移除dropout

2.high resolution classifier,在高分辨图像上对分类网络finetune

3.convolutional、anchor boxes和dimension priors:

使用anchor box,所以输出的和faster rcnn或者是和SSD一样,对于每一个anchor都有一组输出。通过使用average pooling可以实现全卷积网络,最后的anchor box输出用卷积来实现,在20个类别上,最后的输出有125层,是5(Anchor数量)*25(5(b-box)+20(类别))。最后附加一个NMS。但因为效果不好,文中使用了k-means对GT-box聚类,得到了几个中心的大小,然后最终选取了5个Anchor,这个就是dimension priors。

4.location prediction

对于Anchor,还做了一点修正,采用的是YOLOv1中的方法,也就是划分grid,b-box中心在grid里头这么一个限制,而不是一般的无约束Anchor方法,同时,也对需要预测的值进行了一些变换,如下:

其中,cx,cy指的是anchor的中心,pw,ph是anchor的宽高,预测的值是tx,ty这些带t的,等式左边是从预测值得到的反映在图像上的b-box形状和位置。

5.pass through,指的就是其中的一个跨层连接

6.multi-scale,由于是全卷积,所以使用了和SPP-Net中一样的多尺度训练。

7.hi-res dector和new-network,指的是去除掉分类网络的最后一层,添加上1024的3*3卷积,最后使用1*1卷积得到指定的输出。

另外还有:

8.层次结构的分类器,也就是有大类(狗)和小类(哈士奇)标签,利用了ImageNet的结构,方法还是统一输出,但是对于每一个阶段都有一个预测,如下图演示:

然后我们先找到对于大类中最大的概率,再在其子类中递归寻找,最终得到预测结果。由于是同一输出,网络的结构也不用改变

9.joint classification and detection。说的就是如果是单纯的分类任务,我们就只计算分类的损失,而定位部分只用来给出IOU的预测。

损失函数以及训练方法:

损失函数的设计与之前相似,但是训练方法与YOLOv1不一样。由于是采用了Anchor的方法,训练方法采用了SSD的方式,这一点在文中竟然没有说,看了上面的那篇博文才知道。

总结:

感觉没有特别大的亮点吧,总体结构上差不多,使用了很多种技巧,每一种技巧都有改善,这一点是很不错的。

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

目前无法直接提供YOLOv2论文的完整中文翻译,但可以对YOLOv2论文中的核心内容进行总结和翻译,帮助理解其关键思想和技术要点。 ### YOLOv2论文核心内容翻译与总结 #### 摘要与引言 YOLOv2是一种改进的实时目标检测框架,在VOC2007数据集上实现了78.6的mAP[^1]。YOLOv2不仅提升了检测精度,还保持了实时性,适用于多种应用场景。与传统的基于滑动窗口的目标检测方法不同,YOLOv2采用单阶段检测框架,将目标检测问题转化为回归问题,直接预测边界框和类别概率。 #### 性能比较 在VOC2012数据集上,YOLOv2的mAP达到73.4,同时运行速度远超其他主流检测方法[^1]。在COCO数据集上的测试中,YOLOv2在IOU=0.5的指标下获得了44.0的mAP,与SSD和Faster R-CNN等方法相当[^1]。 #### 改进点 YOLOv2的主要改进包括: - **Batch Normalization**:在卷积层后添加批归一化层,提升模型收敛速度和稳定性。 - **High-Resolution Classifier**:YOLOv2首先在ImageNet上预训练高分辨率分类器,然后迁移到目标检测任务中。 - **Anchor Boxes**:引入Anchor Boxes机制,提高边界框预测的准确性。 - **Dimension Clusters**:通过聚类分析生成更适合数据集的Anchor Boxes尺寸。 - **Direct Location Prediction**:对边界框的位置进行直接预测,避免Anchor Boxes带来的偏差。 #### 实验结果 YOLOv2在多个数据集上的实验结果表明其在精度和速度之间取得了良好的平衡。相比YOLOv1,YOLOv2在VOC2007上的mAP显著提升,同时保持了较高的推理速度。 ```python # 示例代码:YOLOv2的简化版边界框预测函数 def predict_bounding_boxes(image): # 图像预处理 processed_image = preprocess(image) # 模型推理 predictions = model_inference(processed_image) # 解析预测结果 bounding_boxes = parse_predictions(predictions) return bounding_boxes ``` #### 相关问题 1. YOLOv2与其他目标检测框架(如Faster R-CNN和SSD)的主要区别是什么? 2. 如何在实际应用中部署YOLOv2模型? 3. YOLOv2的Anchor Boxes机制是如何工作的? 4. YOLOv2的Batch Normalization技术对模型性能有哪些影响? 5. 如何在自定义数据集上训练YOLOv2模型?
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值