【个人学习笔记】语音表示学习:HuBERT模型

原参考资料是一个网站和一个B站UP主讲解的过程,作为详细学习了解 请移步。 

https://jonathanbgn.com/2021/10/30/hubert-visually-explained.html
https://www.bilibili.com/video/BV1QLUiYEEAk/?spm_id_from=333.337.search-card.all.click&vd_source=53c9cead2a67816bbbf7bb89cdad073e

下面记录个人的学习笔记。 

训练第一轮用MFCC,进行K-Means将每个聚类的中心点作为输出得到Hidden units embedding作为后续Back Propagation的Ground Truth;

训练从第二轮开始,从Context Network中间的某一层抽出一些Tokens作为K-Means聚类的输入(不再使用MFCC)

整体训练使用Cross-Entropy Loss来优化Transformer(Context Network),过程如下:

chinese-hubert-large:腾讯GameMate的预训练语音模型 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值