FastSpeech 代码解析 —— train.py
简介
本项目一个基于 FastSpeech 模型的语音转换项目,它是使用 PyTorch 实现的(项目地址)。
FastSpeech 基于 Transformer 的前馈网络,用于并行生成 TTS 梅尔谱图。 FastSpeech 模型与自回归 Transformer TTS 相比,梅尔谱图生成速度加快了 270 倍,端到端语音合成速度加快了 38 倍。(详情请参阅 FastSpeech 的详细介绍)。
由于 FastSpeech 项目较大,代码较多,为了方便学习与整理,对主要代码进行依次介绍。
本文将介绍项目中的 train.py 文件:模型训练文件
函数解析
main
该函数的作用是: 为 FastSpeech 模型进行训练
输入参数:
args : 可控训练参数
代码详解:
def main(args):
# 设置计算使用的设备,可按实际情况决定
device = torch.device('cuda'if torch.cuda.is_available()else 'cpu')
# 定义模型
print("Use FastSpeech")
# 将模型并行训练并移入计算设备中
model = nn.DataParallel(FastSpeech()).to(device)
print("Model Has Been Defined")
# 计算模型参数量
num_param = utils.get_param_num(model)
print('Number of TTS Parameters:', num_param)
# 获取训练元数据
print("Load data to buffer")
buffer = get_data_to_buffer()
# 设置优化器
optimizer = torch.optim.Adam(model.parameters(),
betas=(0.9, 0.98),
eps=1e-9)
scheduled_optim = ScheduledOptim(optimizer,
hp.decoder_dim,
hp.n_warm_up_step,
args.restore_step)
# 设置损失函数
fastspeech_loss = DNNLoss().to(device)
print("Defined Optimizer and Loss Function.")
#设置断点训练恢复
try:
# 加载训练模型
checkpoint = torch.load(os.path.join(
hp.checkpoint_path, 'checkpoint_%d.pth.tar' % args.restore_step))
# 更新模型与优化器的参数
model.load_state_dict(checkpoint

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



