《Facial Emotion Recognition: A Survey and Real-World User Experiences in Mixed Reality》 主要讲的是硬件
本文简要介绍了情感识别的各种方法和技巧。该调查涵盖了对数据库的简要回顾,这些数据库被视为通过面部表情检测情绪的算法的数据集。后来,混合现实设备Microsoft HoloLens(MHL)被引入用于观察增强现实(AR)中的情绪识别。简要介绍了其传感器,它们在情感识别中的应用以及使用MHL进行情感识别的一些初步结果。然后,本文通过比较MHL和常规网络摄像头的情感识别结果得出结论。本文介绍了它们在情感识别中的应用以及利用MHL进行情感识别的初步结果。然后,本文通过比较MHL和常规网络摄像头的情感识别结果得出结论。
《Facial Expression Emotion Detection for Real-Time Embedded Systems》基于matlab的5名观察者的表情识别
目前为止,这是第一次在嵌入式设备(现场可编程门阵列FPGA)上成功地实现了自动情感状态检测。该系统比图形处理单元(GPU)实现速度快20倍[10],可实时分析每秒30帧。本文介绍了该技术的实现过程,并对两种结果进行了评价。
2015年,Microsoft Oxford API(应用程序编程接口)云服务基于面部表情提供情感识别[24]。这个API为图像中的每个面以及面的边界框提供了跨一组情绪的信心。检测到的情绪有愤怒、轻蔑、厌恶、恐惧、幸福、中立、悲伤和惊讶。这些情绪被理解为跨文化和普遍地与面部表情交流。识别是实验性的,并不总是准确的[24]。
总体系统精度为47.44%,可与J.Chen在扩展的Cohn Kanade(CK+)数据库(清洁环境)和Wild(AFEW)4.0数据库[42]中进行的同类最先进的工作相媲美,总体平均精度为45.2%
《Emotion Detection Using Facial Expressions -A Review》这也算个review?就讲了下主成分分析这一种方法
面部表情识别系统由四个步骤组成。首先是人脸检测阶段,它从静止图像或视频中检测人脸。第二个阶段是标准化阶段,它去除噪声,并根据亮度和像素位置对人脸进行标准化。在第三阶段,提取特征并消除无关特征。在最后一步中,基本的表达被分为六种基本的情绪,如愤怒、恐惧、厌恶、悲伤、幸福和惊奇。
《Facial Emotion Recognition in Real Time》开发了一个卷积神经网络,用于实时从动态面部表情中分类人类情绪。我们在现有卷积神经网络的全连接层上使用迁移学习,该网络经过预训练用于人类情绪分类。
情绪可以通过多种方式识别,如语音语调、身体语言和更复杂的方法,如脑电图(EEG)[1]。然而,更简单、更实用的方法是检查面部表情。有七种人类情感在不同的文化中被普遍地识别出来:愤怒、厌恶、恐惧、幸福、悲伤、惊讶、轻蔑。因此,一种从面部表情中检测情感的实用工具将被广泛应用。这样的进步可以在医学、市场营销和娱乐领域带来应用[4]。
图2 VGG S网第一卷积层滤波器的可视化
由于时间限制,我们只训练了网络的最后几个完全连接的层(fc6、fc7、fc8)。VGG S的体系结构(见图6)由五个卷积层、三个完全连接层和一个SoftMax分类器组成,还应用了opencv提供的haar级联过滤器(见论文图6)来裁剪输入图像人脸。
《Using Kinect for real-time emotion recognition via facial expressions》
本文的贡献是:
1.该方法采用了从RGB和深度数据中提取的面部表情特征(AUS和FPPS),对人脸检测和情绪识别具有重要意义。此外,为了提高识别速度,我们减少了FPP的数量,获得了更好的识别精度。
2.我们创建了一个全面的实时FER应用程序,包括基于Kinect和人脸跟踪SDK(Microsoft,美国)的数据库创建和模型培训。据我们所知,这是第一个能够从具有多类型功能的Kinect实时视频序列中识别面部情绪的系统。
3.我们首先提出了一种基于IEPs的融合算法,将最近30帧的识别结果与每种类型的特征(AUS或FPP)融合在一起。然后将结果与两种特征相结合,采用基于最大置信度的融合算法进行情感估计。
表情强度:《Facial Expression Intensity Estimation Using Ordinal Information》
并没有说怎么判别表情强度,只有在有标记的表情上才可以,如pain表情