人类语音通过词汇内容和表达方式传递情感。在语音助手和客服通话等场景中,自动分析语音情感对提升用户体验至关重要。
某中心Chime SDK团队开发的语音情感分析模型采用深度神经网络架构,同步处理声学特征和词汇信息。模型通过两阶段训练:首先训练自动语音识别(ASR)模型同步识别情感标签和文本内容,随后冻结编码器用于情感分类器前端。
技术亮点:
- 混合架构:采用预训练前端提取语音特征,ASR编码器同步学习声学和词汇特征
- 数据增强:使用频谱增强、语速调整(95%-105%)、混响和噪声添加(0-15dB SNR)提升鲁棒性
- 实时推理:在5秒语音片段上每2.5秒输出一次情感概率,计算30秒滑动窗口和全局情感
- 偏差消除:通过均匀采样和损失函数加权平衡不同情感标签的检测准确率
模型采用异构数据集训练,对缺失标签的数据使用某机构Comprehend生成情感伪标签,缺失文本的数据使用某机构Transcribe生成转录文本。测试表明,该混合模型性能优于纯文本或纯声学分析方法。
生产环境中,该技术已集成至某中心Chime SDK通话分析系统,以较低计算成本实现实时情感分析。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)
公众号二维码

1229

被折叠的 条评论
为什么被折叠?



