
机器学习
文章平均质量分 89
audiocool
专注于音频数字信号处理领域,掌握语音降噪,回声消除,啸叫抑制,均衡器,自动增益,限幅器等音频前级处理算法。熟悉数字麦克风阵列波束处理,数字音频水印等。欢迎志同道合的朋友一起探讨!
展开
-
实例理解EM算法
一个非常简单的例子假设现在有两枚硬币1和2,,随机抛掷后正面朝上概率分别为P1,P2。为了估计这两个概率,做实验,每次取一枚硬币,连掷5下,记录下结果,如下:硬币结果统计1正正反正反3正-2反2反反正正反2正-3反1正反反反反1正-4反2正反反正正3正-2反1反正正反反2正-3反可以很容易地估计出P1和P2,如下:P1 = (3+1+2)/ 15 = 0.4P2= (2+3)/10 = 0.5到...转载 2018-07-09 11:26:53 · 6872 阅读 · 8 评论 -
深度学习开放数据集
https://segmentfault.com/a/1190000014230303摘要: 还在发愁找不到数据集训练你的模型?快来收藏一下史上最全的深度学习数据集汇总吧,有它在,一切都ok~介绍深度学习的关键是训练。无论是从图像处理到语音识别,每个问题都有其独特的细微差别和方法。但是,你可以从哪里获得这些数据?现在你看到的很多研究论文都使用专有数据集,而这些数据集通常不会向公众发布...转载 2018-11-02 10:18:09 · 1547 阅读 · 0 评论 -
tensorflow源码编译
一、环境搭建1、安装bazel:https://docs.bazel.build/versions/master/install-ubuntu.html2、安装NDK:官网https://developer.android.com/ndk/downloads/index.html#download,下载最新的AndroidNDK包(android-ndk-r14b-linux-x86_...原创 2018-11-13 15:49:51 · 555 阅读 · 0 评论 -
HMM/GMM识别之三音素训练——决策树
三音素训练决策树为什么需要决策树我们进行语音识别模型训练的过程中,首先进行的是单音素、单个高斯的模型训练。抛开单个高斯不说,单音素模型本身有很大缺点:没有考虑到本音素前后音素的发音对本音素的影响。比如,同样是一个音素iy,如果它前面的音素分别是h和p,那么iy这个音素在这两种情况下的发音会有所不同,那么模型参数也就会受到其影响,此时,如果用同一个模型来描述音素iy,那么就会不合理。为了解...转载 2019-03-26 16:11:46 · 3106 阅读 · 0 评论 -
HMM-GMM解码图谱构建——HCLG
用WFST来表征ASR中的模型(HCLG),可以更方便的对这些模型进行融合和优化,于是可以作为一个简单而灵活的ASR的解码器(simple and flexible ASR decoder design)。利用WFTS,我们可以吧ctc label,lexicon(字典),language models(语言模型)等模型结合起来,生成一个简单的search graph用于解码。WFTS主要...转载 2019-03-26 19:47:59 · 1248 阅读 · 0 评论 -
tensorflow从pb文件导出模型图
运行下面的程序,将graph信心保存在log目录:#!/usr/bin/env python# -*- coding:utf-8 -*-import tensorflow as tffrom tensorflow.python.platform import gfilemodel = 'model.pb' #请将这里的pb文件路径改为自己的graph = tf.get_default...原创 2019-04-13 10:46:26 · 1180 阅读 · 0 评论 -
tensorflow从checkpoint中提取模型从参数
原创 2019-04-13 11:40:17 · 1327 阅读 · 0 评论 -
语音唤醒
唤醒可以看成是一种小资源的关键词检索任务,其中小资源是指计算资源比较小和空间存储资源比较小,因此它的系统框架跟关键词检索的系统会有一定的区别,目前常用的系统框架主要有Keyword/Filler Hidden Markov Model System和Deep KWS System两种。 第一种被称为基于HMM的Keyword and Filler系统,这类系统的关键是上图中左...原创 2019-04-22 19:51:16 · 11830 阅读 · 0 评论 -
keras中epoch,batch,loss,val_loss相关概念
1、epochKeras官方文档中给出的解释是:“简单说,epochs指的就是训练过程接中数据将被“轮”多少次”(1)释义:训练过程中当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个epoch,网络会在每个epoch结束时报告关于模型学习进度的调试信息。(2)为什么要训练多个epoch,即数据要被“轮”多次在神经网络中传递完整的数据集一次是不够的,对于有限的...转载 2019-04-23 10:56:57 · 13945 阅读 · 3 评论 -
keras搭建LSTM处理可变 长序列
众所周知,LSTM的一大优势就是其能够处理变长序列。而在使用keras搭建模型时,如果直接使用LSTM层作为网络输入的第一层,需要指定输入的大小。如果需要使用变长序列,那么,只需要在LSTM层前加一个Masking层,或者embedding层即可。 1 2 3 4 5 fromkeras.layersimportMasking,...转载 2019-04-20 11:57:57 · 2448 阅读 · 0 评论 -
不平衡数据集的处理
一、不平衡数据集的定义所谓的不平衡数据集指的是数据集各个类别的样本量极不均衡。以二分类问题为例,假设正类的样本数量远大于负类的样本数量,通常情况下通常情况下把多数类样本的比例接近100:1这种情况下的数据称为不平衡数据。不平衡数据的学习即需要在分布不均匀的数据集中学习到有用的信息。不平衡数据集的处理方法主要分为两个方面:1、从数据的角度出发,主要方法为采样,分为欠采样和过采样以及对应...转载 2019-05-07 09:48:09 · 1930 阅读 · 0 评论 -
分类模型评价指标
在分类型模型评判的指标中,常见的方法有如下三种:混淆矩阵(也称误差矩阵,Confusion Matrix) ROC曲线 AUC面积混淆矩阵是ROC曲线绘制的基础,同时它也是衡量分类型模型准确度中最基本,最直观,计算最简单的方法。一句话解释:混淆矩阵就是分别统计分类模型归错类,归对类的观测值个数,然后把结果放在一个表里展示出来。这个表就是混淆矩阵。ROC是一条线,如果我们选择用...转载 2019-05-20 14:39:49 · 9635 阅读 · 0 评论 -
机器学习概念
转自:https://www.cnblogs.com/subconscious/p/4107357.html让我们从机器学习谈起 导读:在本篇文章中,将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。当然,本文也面对一般读者,不会对阅读有相关的前提要求。 在进入正题前,我想读者心中可能会有一个疑惑:机器学习有什么重要...转载 2018-11-03 11:17:49 · 339 阅读 · 0 评论 -
过拟合问题
转自博客:http://www.datalearner.com/blog/1051537860479157一、早停法简介(Early Stopping)当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能(generalization performance,即可以很好地拟合数据)。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合:当网络在训练集上表现越来越好,错...转载 2018-10-26 09:17:08 · 880 阅读 · 0 评论 -
HMM——训练算法(前向-后向算法)
这几天在学习HMM模型之训练算法,前向后向算法(又称Baum-Welch)。现将一些没有消化的内容记下来,后面再仔细研究。HMM训练描述为:给定HMM状态集合,和一系列观测序列,如何对A和B进行训练。1、符号ξ记做:给定观测序列情况下,t时刻状态为i,t+1时刻状态为j的概率,描述为: 上式中 代入(1)式可得: 符号C(i→j) 记做从状态i转移到状态j的个数,则转移矩阵的定...转载 2018-07-09 15:03:49 · 3600 阅读 · 0 评论 -
DNN模型以及前向传播算法
由于工作需要,最近开始研究DNN深度神经网络,在网上找了些 写得比较通俗易懂的资料,在此记录下,方便下次复习。该博文出自:https://www.cnblogs.com/pinard/p/6418668.html深度神经网络(Deep Neural Networks, 以下简称DNN)是深度学习的基础,而要理解DNN,首先我们要理解DNN模型,下面我们就对DNN的模型与前向传播算法做一个总...转载 2018-07-17 09:50:26 · 3337 阅读 · 0 评论 -
深度神经网络(DNN)模型与反向传播算法
博文出自:https://www.cnblogs.com/pinard/p/6422831.html另外一篇博文,辅助理解公式推导:http://deeplearning.stanford.edu/wiki/index.php/反向传导算法在深度神经网络(DNN)模型与前向传播算法中,我们对DNN的模型和前向传播算法做了总结,这里我们更进一步,对DNN的反向传播算法(Back Propag...转载 2018-07-17 10:00:20 · 1581 阅读 · 0 评论 -
深度神经网络(DNN)损失函数和激活函数的选择
博文出自:https://www.cnblogs.com/pinard/p/6437495.html在深度神经网络(DNN)反向传播算法(BP)中,我们对DNN的前向反向传播算法的使用做了总结。里面使用的损失函数是均方差,而激活函数是Sigmoid。实际上DNN可以使用的损失函数和激活函数不少。这些损失函数和激活函数如何选择呢?下面我们就对DNN损失函数和激活函数的选择做一个总结。1. 均...转载 2018-07-17 10:02:48 · 1837 阅读 · 0 评论 -
深度神经网络(DNN)的正则化
博文出自:https://www.cnblogs.com/pinard/p/6472666.html和普通的机器学习算法一样,DNN也会遇到过拟合的问题,需要考虑泛化,这里我们就对DNN的正则化方法做一个总结。1. DNN的L1&L2正则化 想到正则化,我们首先想到的就是L1正则化和L2正则化。L1正则化和L2正则化原理类似,这里重点讲述DNN的L2正则化。 ...转载 2018-07-17 10:04:07 · 396 阅读 · 0 评论 -
语音交互开源平台对比
语音识别项目:http://www.oschina.net/project/tag/203/tts-speech sf.net http://www.codesoso.net/Search?q=%D3%EF%D2%F4%CA%B6%B1%F0&l=chttp://search.codesoso.com/Search?q=%E8%AF%AD%E9%9F%B3%E8%AF%86%E5%88%A...转载 2018-07-12 15:58:23 · 9029 阅读 · 0 评论 -
HMM-GMM——前向算法
HMM概序(533)1、五个基本要素 HMM是个五元组λ=( S, O, π ,A,B) S:状态值集合,O:观察值集合,π:初始化概率,A:状态转移概率矩阵,B:给定状态下,观察值概率矩阵2、HMM的三个假设1、有限历史性假设,p(si|si-1,si-2,...,s1)= p(si|si-1)2、齐次性假设,(状态与具体时间无关),P(si+1|si)=p(sj+1,sj)3、输出...原创 2018-07-06 09:34:03 · 2055 阅读 · 0 评论 -
HMM——后向算法
后向算法 对于HMM的评估识别问题,利用动态规划可以用前向算法,从前到后算出前向变量;也可以采用后向算法,从后到前算出后向变量。先介绍后向变量βt(i):给定模型μ=(A,B,π),并且在时间 时刻t状态为si 的前提下,输出序列为Ot+1Ot+2...OT的概率,即 βt(i)=P(Ot+1Ot+2...OT|qt=si,μ)归纳过程 假设仍然有3个状态 当...原创 2018-07-06 14:12:05 · 1448 阅读 · 0 评论 -
HMM——viterbi算法
对于一个特殊的隐马尔科夫模型(HMM)及一个相应的观察序列,我们常常希望能找到生成此序列最可能的隐藏状态序列。1.穷举搜索 我们使用下面这张网格图片来形象化的说明隐藏状态和观察状态之间的关系: 我们可以通过列出所有可能的隐藏状态序列并且计算对于每个组合相应的观察序列的概率来找到最可能的隐藏状态序列。最可能的隐藏状态序列是使下面这个概率最大的组合: Pr(观察序列|隐藏状态的...原创 2018-07-06 16:13:40 · 1354 阅读 · 0 评论 -
Sphinx语音识别
一、语音识别简介 语音识别的一般框架一般包含几个部分:声学模型、语音模型、以及词典。语音信号(波形)经过前级处理(包括降噪,语音增强,人声检测等)后,提取特征,送入解码模块,进行解析得到识别结果。而解码模块则由 声学模型、语言模型映射、链接组成的网络。目前主流的语音模型一般采用 n-gram 语言模型,声学模型采样隐马尔科夫模型(HMM),这些模型都需要经过预先训练得到。 ...原创 2018-08-07 10:28:53 · 3635 阅读 · 0 评论 -
tensorflow学习
tensorflow二进制安装 pip3 install tensorflow-gpu //GPU版本 pip3 install tensorflow //CPU版本本文主要通过一个简单的 Demo 介绍 TensorFlow 初级 API 的使用方法,因为自己也是初学者,因此本文的目的主要是引导刚接触 TensorFlo...转载 2018-09-30 11:59:53 · 384 阅读 · 0 评论 -
一天搞懂深度学习
转自博客:http://www.cnblogs.com/wwf828/p/8573825.html整个PPT的思维导图如下,图片来源为深度学习导论 - 读李宏毅《1天搞懂深度学习》深度学习的三个步骤1.定义一组函数→即找到合适的神经网络(网络的参数θ:包括权重和偏移bias)神经网络的思想来源于对人脑生理上的研究。人类智能最重要的部分是大脑,大脑虽然复杂,它的组成单元却是相...转载 2018-10-26 09:06:22 · 585 阅读 · 0 评论 -
GMM-HMM孤立词识别
之前做过的GMM-HMM孤立词识别,现在整理一下。这里我们把输入的语音当做语音识别中的一个音素来建模,假定建模的HMM状态链是7状态的,因此,孤立词识别就是只用到了声学模型部分,没有涉及语言模型这些。1、将输入的一段语音进行分帧,对每帧计算MFCC特征,得到一组特征向量。比如(99*39 99帧,特征维度为33).2、用无监督方法EM对特帧向量进行训练,得到5个GMM模型的参数(...原创 2019-09-19 16:45:34 · 1657 阅读 · 1 评论