Alexa语音识别新技术亮相Interspeech
在今年的Interspeech(全球最大语音技术年会)上,某中心Alexa自动语音识别总监Shehzad Mevawalla发表了关于"对话智能体中语音技术的成功、挑战与机遇"的主题演讲。
端到端模型突破
语音识别系统现已实现全功能设备端处理。以往需要数GB内存、依赖云端大型服务器的模型,如今可压缩为极小的体积并部署在设备中。这主要归功于端到端模型的应用:神经网络直接接收语音信号输入并输出转录结果,取代了传统需要依次处理输入的声学模型和语言模型。
端到端模型消除了各独立组件的开销,通过完整的神经网络表示将模型大小缩减至原来的百分之一。结合多种量化技术,在保持精度的同时进一步减少了内存和计算占用。这些模型可部署在设备上,并通过专用的神经处理器进行加速运算。
说话人识别系统升级
说话人识别功能采用双模型方法:
- 文本相关模型:通过唤醒词(如"Alexa")的发音特征进行匹配
- 文本无关模型:独立于说话内容进行声纹识别
将这两个系统完全神经网络化并组合使用,使说话人识别性能获得数量级提升。
半监督学习应用创新
通过半监督学习(SSL)技术,使用少量标注数据训练的模型能够自动标注大量未标注数据,进而用于增强原始模型或训练更轻量的模型。结合语言池化技术,该系统可有效处理机器转录的未审核数据。
这些突破使得语音识别系统能够在保持零延迟增加的前提下,持续集成新功能(如语音唤醒、多语言实时切换等),为数千万设备提供始终在线、高可靠性的服务体验。
本文根据Interspeech 2020技术分享内容整理
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

1万+

被折叠的 条评论
为什么被折叠?



