FastSpeech 代码解析 —— eval.py
简介
本项目一个基于 FastSpeech 模型的语音转换项目,它是使用 PyTorch 实现的(项目地址)。
FastSpeech 基于 Transformer 的前馈网络,用于并行生成 TTS 梅尔谱图。 FastSpeech 模型与自回归 Transformer TTS 相比,梅尔谱图生成速度加快了 270 倍,端到端语音合成速度加快了 38 倍。(详情请参阅 FastSpeech 的详细介绍)。
由于 FastSpeech 项目较大,代码较多,为了方便学习与整理,对主要代码进行依次介绍。
本文将介绍项目中的 eval.py 文件: 使用训练好的 FastSpeech 模型进行语音合成
函数解析
get_DNN
该函数的作用是: 根据训练次数加载已训练的模型
输入参数:
num : 需要恢复的模型训练步数
输出参数:
model : 恢复后的模型
代码详解:
def get_DNN(num):
# 组装要恢复的模型路径
checkpoint_path = "checkpoint_" + str(num) + ".pth.tar"
# 将模型转换为并行训练模型并移入计算设备中
model = nn.DataParallel(M.FastSpeech()).to(device)
# 更新模型参数
model.load_state_dict(torch.load(os.path.join(hp.checkpoint_path,
checkpoint_path))['model'])
# 将模型置于生成状态并返回
model.eval()
return model
synthesis
该函数的作用是: 根据文本使用已训练模型合成 mel 谱图
输入参数:
model : 已训练模型
text : 语音文本
alpha : 合成语音速度参数
代码详解:
def synthesis(model, text, alpha

本文介绍基于FastSpeech模型的语音合成项目,重点解析eval.py文件。该项目利用PyTorch实现,FastSpeech采用Transformer前馈网络,显著提高语音合成效率。文章详细介绍了eval.py中的模型加载、语音合成等功能。
最低0.47元/天 解锁文章
931

被折叠的 条评论
为什么被折叠?



