Cross-view Action Recognition 跨视角动作识别方法

Cross-view Action Recognition是一项具有挑战性的任务,因为不同视角下动作的类内差异大于类间差异。现有的方法包括3D重建、寻找视角不变的特征表示、以及基于转移学习的技术。这些方法通过最大化聚类间隔、学习双语词词汇、虚拟视角、共同特征空间等方式来应对视角变化。论文《Cross-view Action Recognition over Heterogeneous Feature Spaces》提出了一种在异构特征空间中进行典范相关异构转换判别分析的方法,该方法学习投影矩阵以找到源视角和目标视角的共同子空间,利用标签的判别性来适应不同视角。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Cross-view action recognition 训练集动作是在一个视角下观察的,而测试集是在不同的视角下,因此由于不同动作在不同视角下的类内差异比同一视角下的类间差异大,因此Cross-View动作识别是比较有挑战性的研究方向。
目前解决这一问题的方法,传统方法主要有以下几种:
  1. 通过3D重建( 3D reconstruction),建立不依赖视角的人体3D模型。
  2. 寻找对视角变化不敏感的动作特征表示.比如时域自相似性描述子(temporal self-similarity descriptors [1]) 以及视角的流形表示 the view-style independent manifold representation[2]。wu[3] 提出了一种潜在核结构的SVM算法,视角在模型中作为潜在变量,通过训练和测试阶段去推测。
  3. 基于 transfer learning的方法.通过探索统计特性之间的关联,调整一个视角或者多个视角下(source view)学到的knowledge,到不同的视角下(target view).
3.1 Farhadi et al. [4]用最大化聚类间隔来产生源视角的分割,转化这种分割值到目标视角,从而学习基于分割的目标视角特征。缺点是需要帧level的特征到特征的关联去训练分类器。</
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值