面部表情识别:开发及其在人机交互中的应用
1 引言
面部表情的自动分析是人机交互(HMI)研究的重要工具。自主机器人控制系统是复杂的系统,由传感器、决策控制系统和电机驱动系统组成。传感器可以是视觉系统、语音系统或手动控制系统。
目前,使用头部或面部运动来控制机器人或轮椅的系统,不适合有严重身体残疾、难以进行头部或面部运动的人;语音控制系统也不适合有语言障碍的人。因此,当前的研究重点是设计能解决这些问题的系统,最佳选择是通过识别用户的面部表情(如快乐、悲伤、惊讶、愤怒和中性)来发出指令。
此前已开发了静态和动态的面部表情识别(FER)系统。在本文中,将展示动态的 FER 系统,并对图像序列中面部表情的建模、分析和解释进行改进,以在机器人操作系统(ROS)中控制移动机器人(Pionner - 3DX)的位移(前进、后退、左转、右转)。
2 面部表情建模
特征提取是任何形状识别系统中关键且复杂的部分,主要解决两个子问题:
- 必须进行哪些测量?
- 从原始数据中使用哪些特征作为输入?
在本研究中,输入数据是面部表情建模帧的特征,面部表情通过面部特征(眉毛、眼睛、嘴巴)的临时非刚性变形(0.25 - 5 秒)来衡量。采用梯度向量流(GVF)蛇算法提取可变形和非刚性测量,但该算法存在局限性,如仅适用于二值图像、手动选择初始蛇以及每张图像仅提取一个几何对象。因此,提出对 GVF 算法进行修改以克服这些限制。
2.1 GVF 场
GVF 方法分两个阶段计算 GVF 场:
1. 计算图像的梯度
2. 计算梯度向量流
经典的蛇模型将
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



