论文Depth Information Guided Crowd Counting for Complex Crowd Scenes

提出一种名为DepthInformationGuidedCrowdCounting(DigCrowd)的方法,用于解决复杂场景下的人群计数问题。该方法利用深度信息将场景分割为远景和近景区域,分别采用不同的技术进行计数。

Depth Information Guided Crowd Counting for Complex Crowd Scenes

摘要

出于城市安全的考虑,监控和分析人群拥挤事件是非常重要的。在一张拥塞场景的景深图像(EDOF: extended depth of field)上,人群的分布是很不平衡的。离镜头远的人看起来很小,并且互相之间重合严重,同时离镜头近的人看起来比较大。在这种情况下,使用一种技术很难准确估计人数。这篇文章提出了一种方法,深度信息导向性人群计数(DigCrowd)来处理这种图像。这个方法首先利用深度信息将一张图片的场景分割为远景区域和近景区域;然后DigCrowd将远景区域映射到拥塞密度图,并且使用一种检测方法计算近景区域的人数。除此之外,引入了一个新的拥塞数据集,该数据集包含1000张图片。实验结果可以证明DigCrowd方法的有效性。

介绍

随着人口增长,智能人群分析系统越来越重要,同时这块领域面临着很多挑战,比如人群不一致分布、光照不统一,外观规模等场景不一致以及透视扭曲等问题。提出几种方法,比如论文Single-image crowd counting via multi-column convolutional neural network提出的MCNN方法,作者指出这种方法在复杂的拥塞场景中不具有鲁棒性。文中提出的算法概览如下图:


首先,depth map算法得到图像的深度信息,从而将复杂的拥塞场景分为远景和近景区域;图像分割基于yolo框架方法(参看论文You Only Look Once: Unified, Real-Time Object Detection),每个场景不是被定量地划分。这里指出yolo方法的失败之处:一是人群不均匀的分布以及人不均匀的像素分布(这里翻译可能有点问题);另一则是人群聚集现象的存在和严重漏检测的筛查结果。这些原因导致比较差的结果,从而针对远景区域使用密度图方法。基于混合方法,结果很接近真实场景。

文章贡献主要分为下列几个方面:

  1. 提出一种针对视频流的基于深度神经网络的拥塞密度检测混合方法
  2. 提出基于图像深度信息的图像分割方法,同时使用空间上下文方法消除重复检测
  3. 提供了一个复杂拥塞场景的航站数据集

近期工作 (略)

人群计数方法分为以下几类:基于检测的方法、基于回归的方法、基于密度估计以及基于CNN的方法。

提出的方法

提出新的混合方法解决这种拥塞场景,详细如下:

  1. 使用一个新的分割方法,首先获得输入图像的深度信息,然后利用深度信息的局部相似性将图像分为远景区域和近景区域。
  2. 针对近景区域,使用CNN检测人群,同时使用空间限制解决图像分割边缘的重复性检测。
  3. YOLO检测方法无法处理远景区域,我们使用密度图方法,该方法可以计算小的远的目标。

  • 图像分割
  • 近景区域检测
  • 空间限制
  • 远景区域密度图估计
  • 系统实现结果

图像分割

首先使用一个多尺度深度网络预测一张图片的密度图(参看论文Depth map prediction from a single image using a multi-scale deep network);其次基于颜色相似性和接近度产生近景区域和远景区域,这一步在五维空间[labxy]种完成,[lab]是颜色空间的像素颜色向量,x、y指像素位置。当在颜色空间种两种颜色之间的最大可能距离受限,x、y平面上的空间距离取决于图像尺寸。下图是基于深度信息的分割:


上图中:(a)输入图像;(b)深度信息;(c)分割线;(d)远景区域;(e)近景区域;

近景区域检测

首先产生图像的特诊图:使用传统的CNN预训练权重;采用YOLO架构作为检测模块。在卷积层顶层,YOLO采用全连接层回归特征表示,标识图像分为S*S个划分,每个划分有B边界预测框,代表了5个位置参数,包括x、y、w、h和置信度c。在本文框架中设置S=7,测试时将条件性类概率和单个预测框置信度预测相乘,式子如下:


上式得到每个预测框特定类置信度得分(这里不太对感觉),这些得分将编码在预测框中出现的类的概率,以及体现预测框与物体的合适程度。下图是近景检测的结果:


(a)是通过深度信息分割的输入前景图像;(b)是目标检测结果;

空间限制

在划分线周围有重复检测问题,如下图(a):


(b)图是在(a)图上增加了空间限制后的检测结果;

EDOF场景理解和分割存在的难点:

  1. 当对EDOF场景理解和分割不正确时,会造成严重的检测错误;
  2. 根据拥塞状况,正确的区域不容易计算;
  3. 拥塞区域可能会被判断为无效区域,也会增加无法检测的可能性;

为了解决上述问题,采用手工分割EDOF场景的方法;加上空间限制的具体步骤如下:

  1. 输入视频第一帧,含有需要检测的人群;
  2. 手工绘制连续的多段线,定义一个可能是错误检测的区域,考虑之前的人群空间分布信息。多折线的公式如下:

   3.引入一种多线索检测模式来处理检测结果。假定检测结果框的左上角和右下角坐标分别是,则中心的坐标即。提出若满足下图的条件,则框属于无效区域,结果会直接被删除。


        4.直接删除无效框;

远景区域密度估计

前文提到使用密度图方法来检测远景区域;转换图片至连续的密度函数,首先标注K近邻距离如下:平均距离是:;使用高斯核函数与上式卷积,因此密度是:。当在像素Xi处有人时,使用delta函数表示;N时图像中的总人数;换种说法就是,将标签H和密度核进行卷积适应每个数据点的局部几何性,即几何自适应核。


实验结果

实验评估标准:MAE&MSE

使用Ciisr数据集产生的结果:


结论

针对EDOF场景融合提出一种人群计数方法DigCrowd,为了更好说明我们提出的方法性能,产生一个新的数据集CIISR;该方法具有很好的效果,并且可以迁移到其他数据集上。

### 原理 基于成对约束引导的稀疏学习用于特征选择(Pairwise Constraint - Guided Sparse Learning for Feature Selection)的核心原理在于结合成对约束信息与稀疏学习方法来进行有效的特征选择。 成对约束通常分为两种类型:必须链接(Must - Link)和不能链接(Cannot - Link)。必须链接表示两个样本应该属于同一类别,不能链接表示两个样本应该属于不同类别。这些约束信息为特征选择提供了额外的监督信号,有助于在特征空间中挖掘更有判别力的特征。 稀疏学习则是通过引入稀疏性约束,如L1范数,使得学习到的特征权重向量中大部分元素为零,从而实现特征选择。在结合成对约束和稀疏学习时,目标函数通常会同时考虑数据的重构误差、成对约束的满足程度以及稀疏性惩罚项。例如,在优化过程中,算法会尝试找到一组特征权重,使得在满足成对约束的前提下,数据能够被尽可能准确地重构,同时特征权重向量具有稀疏性。 ### 相关研究 在学术研究方面,许多学者致力于改进基于成对约束引导的稀疏学习特征选择算法。一些研究聚焦于设计更有效的目标函数和优化算法,以提高特征选择的性能和效率。例如,有研究提出了自适应的稀疏正则化方法,根据数据的特点自动调整稀疏性约束的强度。还有研究探索了如何将成对约束与其他机器学习模型相结合,如支持向量机、神经网络等,以进一步提升模型的分类性能。 ### 应用 - **生物信息学**:在基因表达数据分析中,基于成对约束引导的稀疏学习特征选择可以帮助识别与疾病相关的基因特征。通过利用已知的样本之间的关系(如患病样本和健康样本之间的不能链接约束),可以筛选出最具判别力的基因,为疾病的诊断和治疗提供依据。 - **图像识别**:在图像分类任务中,该方法可以选择对图像类别区分最有帮助的特征。例如,在人脸识别中,成对约束可以表示不同人的面部图像之间的不能链接关系,通过特征选择可以提取出最具代表性的面部特征,提高识别的准确率。 - **文本分类**:对于文本数据,成对约束可以基于文档的主题信息构建。通过特征选择,可以从大量的文本特征中筛选出与主题相关的关键特征,从而提高文本分类的性能。 以下是一个简单的基于Python和Scikit - learn库的特征选择示例代码,虽然不是完整的成对约束引导的稀疏学习实现,但可以展示特征选择的基本过程: ```python from sklearn.datasets import load_iris from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import chi2 import pandas as pd # 加载数据集 iris = load_iris() X = iris.data y = iris.target # 使用卡方检验进行特征选择 selector = SelectKBest(score_func=chi2, k=2) X_new = selector.fit_transform(X, y) # 输出选择的特征 selected_features = pd.DataFrame(selector.get_support(), index=iris.feature_names, columns=['Selected']) print(selected_features) ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值