远距离下脸部与步态的特征级融合研究
1. 特征级融合原理
在将脸部特征 (f’) 和步态特征 (g’) 进行融合之前,需要使用公式 (11.3) 对它们进行归一化处理,使特征值处于相似的范围。假设 (\hat{f}) 和 (\hat{g}) 分别是经过公式 (11.3) 归一化后的脸部特征和步态特征,将它们进行拼接可得到如下特征向量:
[
p =
\begin{bmatrix}
\hat{f} \
\hat{g}
\end{bmatrix}
]
其中 (p \in R^{m_1 + m_2})。根据脸部和步态的特征,我们会使用所有可能的侧脸特征和步态特征组合,以生成最大数量的拼接特征向量。具体来说,对于每个人的每个视频,基于两个脸部特征和两个步态特征构建四个拼接特征。
设 (V_i)((i = 1,2,\cdots,c))为第 (i) 类训练合成特征的均值,即第 (i) 类的原型。将未知人员分类到合成特征 (p) 最近邻的第 (K) 类,满足:
[
\lVert p - V_K \rVert = \min \lVert p - V_i \rVert
]
当为一个人获取多个合成特征时,上述公式意味着将未知人员分类到与所有类对应的距离中距离最小的类。
2. 实验设置
- 数据采集 :使用索尼 DCR - VX1000 数码摄像机以每秒 30 帧的速度采集 45 人的 100 个视频序列。每个视频序列仅包含一个主体,主体在户外行走并向摄像机展示侧面。每人的序列数量为 2 - 3 个,每帧分辨率为
超级会员免费看
订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



