引言
Meta推出了一项名为“Massively Multilingual Speech”(MMS)的项目,旨在解决语音识别和生成技术中的多语言挑战。这个项目结合了wav2vec 2.0的自监督学习方法和一个新的数据集,提供了超过1,100种语言的标记数据和近4,000种语言的非标记数据。这些语言中的一些,如Tatuyo语,仅有几百名讲者,而且大多数这些语言之前没有任何语音技术。
MMS项目的模型在现有模型上取得了显著的性能提升,并覆盖了比现有模型多10倍的语言。Meta公开分享了这些模型和代码,以便研究社区能够在此基础上进一步构建。MMS支持1,107种语言的语音识别和文本转语音,以及超过4,000种语言的语言识别。
在数据收集方面,Meta利用了诸如圣经之类的文本,这些文本已被翻译成多种语言,并且有公开可用的不同语言的音频录音。通过这些数据,Meta创建了一个包含1,100多种语言的新约阅读数据集,平均每种语言提供了32小时的数据。此外,通过考虑其他宗教读物的未标记录音,Meta将可用语言的数量增加到了4,000多种。
技术实现
在技术实现方面,Meta基于wav2vec 2.0的自监督语音表示学习工作,大大减少了训练良好系统所需的标记数据量。具体来说,Meta在超过1,400种语言的大约500,000小时的语音数据上训练了自监督模型。然后,这些模型被微调用于特定的语音任务,如多语言语音识别或语言识别。
性能方面