深度学习面部表情识别与3D凸包算法新进展
深度学习在面部表情识别中的应用
人类表达情感最具表现力的方式之一就是通过面部表情。在计算机科学和人机交互设计领域,面部表情分析正迅速成为一个备受关注的领域。尽管过去十年中人们对自动面部表情识别进行了大量研究,但计算机程序要理解姿态、光照和遮挡等变化较大的面部图像仍然是一项具有挑战性的任务。
动物和人类能够利用“深度架构”的大脑高效地学习观察、感知、行动和交流。本研究聚焦于无监督学习算法,旨在为面部表情识别生成深层次的特征层次结构。理解深度学习不仅有助于构建更智能的机器,还能帮助我们深入了解人类智能和学习机制。
自动面部表情识别(FER)主要涉及两个关键方面:面部表示和基于模式识别理论的分类器设计。此前已经提出了许多方法,如主成分分析、线性判别分析、非参数判别分析、光流、Fisher权重图、局部二值模式(LBP)、尺度不变特征变换(SIFT)和加速稳健特征(SURF)等。近年来,使用多层感知器进行视频中的FER成为热门研究话题,同时,深度神经网络也受到了广泛关注,特别是深度和大型网络在该领域展现出了令人瞩目的成果。
提出的模型
本研究提出了一个深度卷积神经网络(CNN)模型,用于区分不同的面部表情。该模型由九层组成,包括输入层、三个卷积层、两个池化层、两个全连接层和输出层。
在输入层,首先将输入图像归一化到0到1之间,以降低对光照变化的敏感性。C2层是卷积层,使用6个5X5的卷积核,每个卷积核在该层共享权重,通过卷积和激活函数(修正线性单元ReLU)生成6个C2特征图。ReLU函数在每个卷积层、局部连接层和全连接层(最后一层除外)应用,使整个级联产生高度非线性和稀疏的特征。C4
超级会员免费看
订阅专栏 解锁全文
6913

被折叠的 条评论
为什么被折叠?



