运动表现力分析:从理论到计算
1. 相关数据集介绍
- Emotional dyadic MOtion CAPture 数据集 :由 10 名演员在 12 小时的双人脚本化和自发口语交流会话中录制,旨在引发特定类型的情绪(幸福、愤怒、悲伤、沮丧和中性)。包含视听数据、动作捕捉数据(手、头和面部)以及文本转录。
- MMLI 数据集 :一个多模态数据集,专注于全身运动和不同类型的笑声。包含 500 个由人类三人组在既定场景中玩社交游戏时产生的诱导性和互动性笑声片段,数据包括动作捕捉、面部跟踪、多个音频和视频通道以及生理数据。
- EU - FP7 - ICT FET SIEMPRE 项目相关数据集 :在该项目中,专注于分析人群中创造性身体表达交流,录制了多个视听和动作捕捉的多模态数据集,数据收集于三种音乐场景:弦乐四重奏、管弦乐队和观众。
2. 运动表现力计算框架
- 基于 LMA 观测系统的尝试 :许多研究旨在探索如何使用 LMA 观测系统来定义计算框架,但大多成果主要是系统原型和指导方针,还需要对 LMA 进行更清晰的形式化以形成通用计算框架。
- Caramiaux 的模型 :提出两个模型,第一个考虑时间(慢 - 快)和几何(小 - 大、倾斜)运动变化;第二个关注运动的动态变化。但这些方法更侧重于对运动及其表达内容进行建模,而非提供通用分析框架。
- Ca
运动表现力分析:理论、数据集与计算框架
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



