AI智能语音识别算法原理 四

本文介绍了语音识别中常用的神经网络技术,包括CNN和RNN模型,以及解码器的工作原理。解码器依赖于声学模型(如GMM-HMM)、词典和语言模型。声学模型利用HMM对时序信息建模,词典用于将识别的音素映射到词汇,而语言模型则用于评估句子概率。神经网络语言模型则通过直接建模避免了统计计数。
部署运行你感兴趣的模型镜像

一、神经网络

在这里插入图片描述

当前常用的语音识别框架如下图​
在这里插入图片描述

其背后的逻辑是
在这里插入图片描述

​在特征提取时采用的神经网络里面的DNN技术
深度神经网络DNN
深度神经网络DNN
DNN技术可以分为两种,一种是CNN模型,一种是RNN模型
在这里插入图片描述卷积神经网络 CNN模型
在这里插入图片描述
循环神经网络 RNN模型

二、解码器

解码器信息来源于声学模型、词典、语言模型。框图如下:

在这里插入图片描述

2.1 声学模型

常用的声学模型为GMM-HMM,即混合高斯模型-隐马尔科夫模型

HMM模型对时序信息进行建模,在给定HMM的一个状态后,GMM对属于该状态的语音特征向量的概率分布进行建模。

2.2 词典

字典:就是发音字典,中文中就是拼音与汉字的对应,英文中就是音标与单词的对应

用途:

根据声学模型识别出来的音素,在字典中来找到对应的汉字(词)或者单词,用来在声学模型和语言模型建立桥梁,将两者联系起来。

比方如下词语的映射表:
在这里插入图片描述
2.3 语言模型

语言模型是针对某种语言建立的概率模型,是用来计算一个句子的概率的概率模型。

划分以下两种:

2.3.1 N元统计语言模型:N-gram模型、平滑化

请点击输入图片描述(最多18字)

2.3.2 神经网络语言模型:

在这里插入图片描述
与统计语言模型不同的是,神经网络语言模型不通过计数的方法对nn元条件概率进行估计,而是直接通过一个神经网络对其建模求解。

用途:

   1、决定哪一个词序列的可能性更大

   2、已知若干个词,预测下一个词

例子:

1、I went to a party.

 Eye went two a bar tea.

2、你现在在干什么?

 你西安载感什么?

您可能感兴趣的与本文相关的镜像

Qwen3-VL-8B

Qwen3-VL-8B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小正空间

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值