
深度学习
深度学习知识
佰宝
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【bug日志】循环遍历list.remove(item)的bug
【bug日志】循环遍历list.remove(item)的bug今天要实现列出文件夹下以".wav"结尾的文件,走了弯路还遇见bug,记录下:os.walk:os.walk是正常实现方式,代码如下:import osdef list_files(sourcedir, wanted_ends=".mp4"): for root, dirs, files in os.walk(sourcedir): # root 表示当前正在访问的文件夹路径 # dirs 表示原创 2022-04-22 11:40:07 · 255 阅读 · 0 评论 -
【深度学习日志】MSE loss 缺点
【深度学习日志】MSE loss 缺点MSE loss 缺点导入MSE loss 缺点MSE的一个缺点就是其偏导值在输出概率值接近0或者接近1的时候非常小,这可能会造成模型刚开始训练时,偏导值几乎消失。导入转载 2021-11-24 09:37:47 · 1412 阅读 · 0 评论 -
【语音】viterbi 与 beam search
triphone通常是用在“连续语音识别”的系统里的,这样的系统中viterbi不会用在单个的triphone HMM上。“数字识别”这类离散识别的任务可能会出现viterbi用在单个HMM上的情况,其中每个数字用一个HMM表示,包含十几到几十个状态。这种情况下不需要用到beam,因为状态不多,viterbi算起来也很快。然后是beam search。beam search是viterbi的一种近似解法。需要近似的原因是通常”连续语音识别“的解码图通常很大(由上千个HMM加上词典和语言模型生成),状态数都是转载 2022-03-21 10:12:42 · 340 阅读 · 0 评论 -
【语音】语音识别中的HMM-GMM模型:从一段语音说起
语音识别中的HMM-GMM模型:从一段语音说起虽然现在端到端语音识别模型可以直接对后验概率建模,可以不需要HMM结构了。但实际上目前很多state-of-the-art模型还是以HMM结构为主,比如chain model。而且掌握HMM-GMM结构,对于深入理解语音识别过程是由有一定好处的。但对于外行或者刚接触语音识别的人来说,要弄懂HMM-GMM结构还是要花不少时间的,特别是被一大推公式整懵了。语音识别任务有些特殊,比如语音识别中,标注只是针对整段音频的,而不是针对每一帧;语音识别是针对每个音素都建转载 2022-03-21 10:34:37 · 2099 阅读 · 0 评论 -
nltk离线数据:解决nltk.download()下载错误
无网络环境解决nltk.download()报错下载nltk_data,打开nltk_data下载packages文件夹。使用 nltk.data.find(".") 这个命令查看系统路径,任选一个地方建立nltk_data文件夹即可,把package里面的所有文件夹拷贝到nltk_data文件夹。...原创 2022-03-29 14:38:29 · 1426 阅读 · 2 评论 -
docker cuda的devel和runtime包
docker cuda的devel和runtime包转载 2022-11-01 10:03:20 · 581 阅读 · 0 评论 -
PyTorch和CUDA版本对应关系
PyTorch和CUDA版本对应关系转载 2022-11-02 17:28:39 · 33840 阅读 · 1 评论 -
【bugs】Transformer Rust 报错
transformer 安装通过查找信息发现我的transformer 版本太高了 已经4.24了(前几天做了OpenAI的东西,结果把transformer升级了,所以每做一个项目,最好重新建立一个环境),所以我想把transformer降到3.0。于是直接pip install transformer ==3.00。转载 2023-03-22 14:35:11 · 3190 阅读 · 0 评论