车辆识别与跟踪的新方法
1. 框架架构
交互式交通视频跟踪平台主要由数据存储层、数据分析层和数据展示层三部分构成。以下是各层的详细介绍:
- 数据存储层 :此层负责存储系统的所有数据,涵盖原始视频、多摄像头信息以及标准车辆数据库等。
- 数据分析层 :包含多个交通视频处理流程,例如局部特征提取、局部特征匹配和目标关联等。
- 数据展示层 :作为系统的接口,提供视频浏览、对象查询等功能。
车辆类型识别系统基于多特征融合,主要包含两个关键步骤:局部特征提取(包括前脸特征和大灯特征提取)和局部特征匹配。车辆类型识别的主要流程如下:
1. 加载图像。
2. 捕捉大灯区域,并提取大灯边缘。
3. 提取车辆前脸的SURF特征。
4. 分别计算大灯边缘图像和前脸图像的特征与模型数据库中特征的距离。
5. 比较计算结果,距离最小的车辆类型即为最可能的结果。
为提高性能,采用了改进的Canny算子进行边缘检测,提出了基于Hellinger核的改进距离计算方法,并应用位置约束规则减少不必要的错误匹配。
2. 边缘提取
考虑到车辆大灯包含丰富的特殊特征,但存在较多光噪声,因此先对其进行边缘提取,再进行特征提取。在大灯边缘提取过程中,采用了改进的Canny算法,具体步骤如下:
1. 加载灰度图像。
2. 进行高斯滤波和图像平滑处理。
3. 计算梯度幅值和方向。
4. 执行非极大值抑制。
5. 进行双阈值检测和边缘跟踪。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



