目标检测简单总结

目标检测简单总结

大致分类

按照stage可以分为

  • one-stage
    • SSD
    • YOLO
    • etc
  • two-stage
    • Faster RCNN
    • R-FCN
    • etc

谷歌在Speed/accuracy trade-offs for modern convolutional object detectors中将目标检测模型分为了三种元结构Faster R-CNN,R-FCN和SSD

SSD

Faster RCNN

R-FCN

现代目标检测模型耗时与准确率图

one-stage

SSD

网上文章漫天飞

RefineNet

RefineNet大致上是SSD算法和RPN网络、FPN算法的结合

RefineNet: Multi-Path Refinement Networks or High-Resolution Semantic Segmentation

YOLO

网上文章漫天飞

two-stage

其实SPPNet也可以看一看的。
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

网上关于rcnn系列的文章也挺多的。如果时间紧的化,rcnn系列可以直接看Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

下面说些其他有趣的论文和模型。

FCN

FCN(Fully Convolutional Networks)是用于语义分割的模型,文中提出的用于上采样的转置卷积(反卷积)应用挺广泛的。

全卷积网络 FCN 详解

Fully Convolutional Networks for Semantic Segmentation

FPN

FPN(Feature Pyramid Network)利用上采样构建新型的特征金字塔。

Feature Pyramid Networks for Object Detection

DCN

DCN(Deformable Convolutional Networks)的卷积域可以变形,不再是传统的方正形状

Deformable Convolutional Networks

Mask-RCNN

用于实例分割(目标检测+语义分割)。在faster rcnn的基础上添加了一支路预测mask,改进了pool成RoIAlign

Mask R-CNN

R-FCN

R-FCN(Region-based Fully Convolutional Networks)结合位置敏感得分图,将rcnn系列中用于最后预测的子网络头部共享了

R-FCN: Object Detection via Region-based Fully Convolutional Networks

Light-head R-CNN

Light-head R-CNN将R-FCN进一步改进,将子网络头部压缩到很薄。

Light-Head R-CNN: In Defense of Two-Stage Object Detector

R-FCN-3000

将细粒度分类(fine-grained classification)与R-FCN相结合。

R-FCN-3000 at 30fps: Decoupling Detection and Classification

参考资料

基于深度学习的【目标检测】算法综述说的比较生动活泼些

目标检测 (Detection) 算法综述将各个模型点评

干货 | 基于深度学习的目标检测算法综述(一)是美图技术关于Two/One stage 算法改进的文章

干货 | 基于深度学习的目标检测算法综述(二)是美图技术关于解决方案的文章

干货 | 基于深度学习的目标检测算法综述(三)是美图技术关于扩展应用、综述的文章

GitHub - hoya012/deep_learning_object_detection: A paper list of object detection using deep learning.论文列表

Object Detection - handong1587论文列表

### 传统目标检测算法概述 传统目标检测算法依赖于手工设计的特征和机器学习分类器。这类方法通常遵循滑动窗口策略,即在输入图像上应用不同尺度和平移的小窗口,随后对每个窗口内的区域执行特征提取与分类操作[^2]。 #### Viola-Jones级联检测器 Viola-Jones是一种经典的用于快速物体检测的方法,特别是对于面部识别非常有效。该算法采用Haar-like特征描述子以及AdaBoost训练弱分类器组合成强分类器的方式工作。为了提高效率,引入了一个拒绝阈值较低的简单分类器作为初步筛选工具,只有当样本通过这一轮测试才会进入后续更为严格的检验阶段。 #### HOG+SVM框架 Histogram of Oriented Gradients (HOG) 是另一种广泛使用的局部形状表示技术。它计算并统计给定区域内梯度方向直方图来捕捉边缘信息。配合线性支持向量机(SVM),此方案能够较好地区分前景对象与其他背景干扰项。此外,还加入了非最大抑制(NMS)步骤去除冗余边界框以精炼最终输出结果。 ```python import cv2 from skimage.feature import hog from sklearn.svm import LinearSVC def extract_hog_features(image): fd, _ = hog(image, orientations=9, pixels_per_cell=(8, 8), cells_per_block=(2, 2), visualize=True, multichannel=True) return fd.flatten() # 训练 SVM 分类器... svm_classifier = LinearSVC() X_train, y_train = load_training_data() # 加载数据集函数 svm_classifier.fit(X_train, y_train) # 使用训练好的模型预测新图片中的物体... test_image = read_new_test_image() # 图片读取函数 features = extract_hog_features(test_image) prediction = svm_classifier.predict([features]) ``` #### DPM(Deformable Parts Model) 可变形部件模型(DPM)进一步扩展了上述概念,允许定义具有特定布局关系的关键部位(如人体姿态估计)。这些组成部分可以在一定范围内自由移动调整相对位置从而适应实际场景变化。DPM同样利用了类似HOG这样的低层视觉线索并通过逻辑回归构建整体评分机制来进行定位决策过程。 ### 性能评估标准 针对以上提到的各种经典方法,在实践中会依据精确率(Precision)、召回率(Recall)及其综合衡量F-measure等指标进行全面考量;同时也关注处理速度等因素以便更好地满足实时应用场景需求[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值