语音情感识别中LSTM模型性能比较与电力系统谐波分量估计
1. 语音情感识别中LSTM模型相关内容
1.1 模型架构
在语音情感识别(SER)中,有两种主要的模型架构:LSTM和Stacked CNN - LSTM。
- LSTM架构 :由三个LSTM单元后接一个扁平化层组成。扁平化层作为一个具有285个神经元和ReLU激活函数的密集层的输入,接着是一个丢弃层和一个密集层,最终输出情感标签预测。
- Stacked CNN - LSTM架构 :包含多个局部特征学习块(LFLB),这些块通过卷积滤波器、批量归一化和指数线性单元(ELU)激活函数从输入中学习局部特征,最后有一个LSTM单元用于长期依赖计算。池化和丢弃层用于降维。
模型训练时,以64个样本为一批次输入,使用“Adam”作为优化器,学习率为1e - 3。与修正线性单元(ReLU)不同,ELU具有负激活,能使均值更接近零,从而实现更快的学习和收敛。它对非负输入执行恒等操作,对负输入执行指数非线性操作。两种架构都有一个具有全连接softmax激活函数的输出层,用于预测语音的情感标签。批量归一化用于更好、更快的训练。
1.2 数据集与特征提取
采用Ryerson音频 - 视觉情感语音数据库(RAVDESS)进行比较分析,该数据库包含12名女性和12名男性说话者的八种情感语音。在SER管道中加入特征提取阶段的目的是确保只处理有信息的数据,避免因冗余或嘈杂输入影响模型性能。梅尔频率倒谱系数(MFCC)通过考虑人类听觉感知不遵循线性响应的事实来模仿人类听觉体验。每个音调有一个由“赫兹”确定的
超级会员免费看
订阅专栏 解锁全文
100

被折叠的 条评论
为什么被折叠?



