语音识别基本概念

这篇文章主要是对CMU Sphinx系列教程的第一篇文章的主要内容做一些总结。学习某个知识,掌握这些知识的基本概念是必要的。不了解这些基本概念和他们的英文表述,对于代码(kalid)和论文的阅读都会存在一些障碍。对这些基本概念是否了解,是检验一个人是否入门语音识别的一个标志。

原文如下:

https://cmusphinx.github.io/wiki/tutorialconcepts/

语音构成

image

语音是一个连续的音频流,由大部分的稳态和小部分的动态组成,怎么对它进行建模呢。

语音可以认为是由多个词(word)构成,而每个词又是由多个音素(phones,在语言学中也称为 phonemes)构成。一个音素对应的波形(wave form)的声学特征的变化会受上下文,说话人等影响。需要被放到上下文中进行考虑,音素与音素相邻(过渡)部分可能比稳定部分蕴含更多的信息。所以,我们把一个音素分为几个不同的子状态(substates)。这就是多音素建模的思想。这些在上下文中的音素被称为三音素(triphones)甚至是五音素。三音素是常用的,对于三个状态也很好解释,音素的第一部分依赖于它的前一个音素,中间的是稳定的自身的部分,第三部分依赖于它的下一个音素。

波形中除了语音还有其他非语音的声音(non-linguistic sounds),这些声音又被称为填充物(filler)。语音和非语音一起构成了语音片段(utterances)。在语音识别中,一个帧长可以认为是一段utterances。目前通用的语音识别方式如下:有一段波形,通过静音(silences)将它分割成若干个语音片段(utterances),然后识别每一个语音片段说的是什么

特征

用帧frames去分割语音波形,从帧提取特征,一般使用MFCC或FBANK

模型

在语音识别中有3个模型

1. 声学模型(acoustic model) 

表示某段语音是某个词或音素的概率。现在一般使用神经网络

2.发音词典(phonetic dictionary)

发音字典包含了从词到音素的映射关系。

3.语言模型(language model)

语言模型用于限制词的搜索范围。定义了哪个词可以跟在前一个已经被识别出来的词的后面。最广泛使用的语言模型就是n-gram语言模型

解码器

解码器就是对以上3个模型构成的Lattice进行搜索匹配。一般使用WFST。Lattice是用于表示所有识别可能的有向图(directed graph)

特征、模型和解码器三部分构成了一个语音识别系统。

评价指标

-词错误率(Word error rate)

假设我们有一个原始的文本以及长度为N个词的识别文本。I是插入词(inserted words)的数量,D是删除词(deleted words),S表示替换词(substituted words)

WER=(I+D+S)/N

-准确率(Accuracy) 

Accuracy=(N−D−S)/N

-实时率(real time factor) 

度量自动语音识别系统解码速度的值。当实时率等于或小于1时我们说该处理是实时的。详见百度百科:https://baike.baidu.com/item/rtf/15874401?fr=aladdin

-ROC曲线

对于一个检测任务,检测会出现误报和命中两种情况。ROC曲线就是用来评价检测性能的。

 

参考文献

1. https://blog.youkuaiyun.com/xm1076709179/article/details/82218262

2. https://blog.youkuaiyun.com/zouxy09/article/details/7941055

 

 

<think>好的,我现在需要回答用户关于语音识别技术基本概念的问题。用户之前已经询问过光符号识别技术(OCR),现在转向语音识别,可能是在比较不同识别技术或者想了解相关领域。首先,我需要明确用户的需求,确保回答的结构和内容符合他们的预期。 首先,我需要回忆语音识别技术的基本概念,包括定义、关键组成部分、技术流程、应用场景等。可能需要分点来阐述,保持与之前OCR回答的结构一致,便于用户对比。同时,用户可能对技术原理感兴趣,但作为基本概念,不需要太深入的技术细节,但需要涵盖主要步骤和关键技术。 接下来,要确保使用中文回答,并且按照用户的要求,使用正确的LaTeX格式,特别是行内公式要用$...$,独立公式用$$...$$。例如,在提到MFCC时可能需要公式,或者声学模型中的概率计算。 同时,要注意用户可能对技术演进、应用场景和挑战感兴趣,需要包含这些部分。另外,用户之前的OCR回答中有历史演进、技术原理分步、应用案例表格等,可以借鉴类似结构,但要根据语音识别的特点调整。 需要检查是否有遗漏的关键点,比如语音识别中的预处理、特征提取、声学模型、语言模型、解码器等组成部分。另外,还要提到当前的挑战,如噪声环境、口音、多语种支持等,以及主流的工具和框架,如Kaldi、DeepSpeech等,可能用户需要这些信息作为参考。 还要注意避免技术术语过于复杂,保持解释的易懂性。比如,解释声学模型时,可以提到它如何将声音信号转化为音素或字词,而语言模型则处理上下文关系。同时,结合应用实例,如智能助手、语音输入法等,让用户更容易理解。 最后,确保回答结构清晰,分点明确,使用适当的标题和子标题,可能用项目符号或表格来组织内容。检查LaTeX格式是否正确,比如声学模型中的概率公式是否用$...$包裹,或者MFCC的计算步骤是否需要独立公式。 总结,我需要组织以下内容: 1. 定义和概述 2. 核心组成部分(预处理、特征提取、声学模型、语言模型、解码) 3. 技术流程步骤 4. 关键技术(如HMM、DNN、端到端模型) 5. 应用场景 6. 技术挑战 7. 常用工具和框架 确保每个部分简明扼要,符合用户之前获得的OCR回答的结构,同时突出语音识别的独特之处,如实时性、环境噪声的影响等。另外,可能需要提到最新的趋势,如端到端模型、多语种支持、低资源语言处理等,展示技术的前沿发展。</think>### **一、基本定义** 语音识别技术(ASR,Automatic Speech Recognition)是将人类语音信号转换为计算机可读文本的核心技术,其本质是**声学信号到语义符号的映射**。例如: - 手机语音助手(如Siri、小爱同学) - 会议实时字幕生成 - 语音输入法(微信语音转文字) --- ### **二、核心组成部分** 1. **预处理** - 分帧加窗:将连续语音切分为20-40ms的短帧(公式:$x[n] \cdot w[n]$,常用汉明窗) - 降噪:抑制环境噪声(如谱减法、维纳滤波) 2. **特征提取** - **MFCC(梅尔频率倒谱系数)**: 1. 傅里叶变换获取频谱 2. 梅尔滤波器组滤波(模拟人耳听觉特性) 3. 取对数后做DCT变换(公式:$c_n = \sum_{k=1}^{K} \log{E_k} \cdot \cos\left[\frac{\pi n}{K}\left(k-\frac{1}{2}\right)\right]$) - 其他特征:FBANK(滤波器组能量)、PLP(感知线性预测) 3. **声学模型** - **传统方法**:GMM-HMM(高斯混合模型+隐马尔可夫模型) - HMM状态对应音素(如汉语拼音的声母/韵母) - 输出概率:$P(o_t|s_i) = \sum_{m=1}^{M} w_{i,m} \mathcal{N}(o_t; \mu_{i,m}, \Sigma_{i,m}})$ - **深度学习方法**: - DNN-HMM(深度神经网络替代GMM) - 端到端模型(如CTC、RNN-T、Transformer) 4. **语言模型** - **N-gram**:基于统计的上下文预测(如$P(w_i|w_{i-1},w_{i-2})$) - **神经网络语言模型**:BERT、GPT等预训练模型提升长距离依赖建模 5. **解码器** - 动态搜索最优路径(如Viterbi算法、束搜索) - 联合优化声学与语言模型得分(公式:$\arg\max_W P(A|W)P(W)$) --- ### **三、技术流程示例** 以“打开空调”指令为例: 1. 麦克风采集音频 → 2. 降噪后提取MFCC → 3. 声学模型输出音素序列 → 4. 语言模型修正为“打开空调” → 5. 触发智能家居控制 --- ### **四、关键技术挑战** | 问题类型 | 具体表现 | 解决方法 | |----------------|---------------------------------------|-----------------------------------| | **环境噪声** | 车载场景信噪比<5dB时错误率上升50% | 多麦克风阵列波束成形 | | **说话人差异** | 方言识别率比普通话低30% | 方言语音数据增强 | | **重叠语音** | 多人同时说话导致字错误率>80% | 说话人分离(如TasNet) | | **低资源语言** | 藏语等语种标注数据不足100小时 | 迁移学习+无监督预训练 | --- ### **五、主流工具与框架** - **Kaldi**:基于HMM的传统ASR工具链(支持WFST解码) - **ESPnet**:端到端语音识别框架(集成Transformer、Conformer) - **DeepSpeech**:基于RNN-T的开源模型(百度DeepSpeech2中文WER 12.7%) - **商用API**:Azure Speech-to-Text(支持100+语种实时转写) --- ### **六、发展趋势** 1. **端到端模型**:简化传统流水线(如Google的LAS模型) 2. **多模态融合**:结合唇动特征提升噪声鲁棒性 3. **边缘计算**:在手机端实现离线识别(如TensorFlow Lite部署) 4. **个性化适配**:少量样本微调模型适应用户口音 当前最先进系统(如Whisper)在LibriSpeech测试集上词错误率(WER)已低于3%,接近人类水平。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值