- 博客(4)
- 收藏
- 关注
原创 增量学习EBKD
INCREMENTAL LEARNING FOR END-TO-END AUTOMATIC SPEECH RECOGNITION 增量学习的目的就是在保持原模型性能的前提下,提升在新数据集上的表现; 采用Teacher-student结果,CTC loss用于帮助ASR模型学习新的任务;RBKD和EBKD两种蒸馏loss用于保留模型 在原任务上的性能。 RBKD计算output的对齐结果loss最小 文章提出一种EBKD的方法,相比Response-based Knowledge Distillat
2022-02-11 15:22:29
1707
原创 语音识别损失函数chain 和ctc 的异同
总结: 1个相同点, 4个不同点。 相同点: 都是在label生成的多条特定路径后的前向后向运算 不同点: label生成的多条特定路径的方式不同。 chain numerator的多条特定路径是alignment出来的; ctc是通过下图方式(原始链接)得到 2. blank label 不同。 chain numerator 没有blank label,如果认为triphone 三个state 中的最后一个state 是blank label的话,那么chain numerator 的每
2022-02-10 19:44:18
1766
原创 tensorflow2.5.0 在CUDA11.0中出现‘libcusolver.so.11‘问题
2022-02-10 18:08:22.877173: I tensorflow/stream_executor/platform/default/dso_loader.cc:53] Successfully opened dynamic library libcurand.so.10 2022-02-10 18:08:22.902771: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dyna.
2022-02-10 19:17:11
2619
原创 使用tensor keras 训练RNN模型
1、包引入 #!/usr/bin/python from __future__ import print_function import keras from keras.models import Sequential from keras.models import Model from keras.layers import Input from keras.layers import Dense from keras.layers import LSTM from keras.layers
2022-02-08 17:12:46
1220
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人