是的,语音识别确实是功耗较高的功能,特别是涉及关键词唤醒(wake word)、实时语音转文本(ASR)等时。但市面上已经有一些专为低功耗嵌入式设备设计的语音识别方案,可在不依赖云端的情况下实现本地识别,并保持极低功耗运行。
✅ 一、语音识别功耗高在哪?
功能阶段 | 典型功耗瓶颈 |
---|---|
关键词唤醒(唤醒词检测) | 持续监听麦克风,常驻运算 |
命令词识别(ASR) | 模型推理、特征提取、FFT |
网络上传(云识别) | 网络模块 + 麦克风功耗总和较大 |
✅ 二、低功耗语音识别的典型技术路线
1. 本地关键词识别(KWS) + MCU 低功耗唤醒方案
-
常驻运行的模块只做「唤醒词检测」:如“Hi 空调”
-
唤醒后 MCU 主频升高,运行主命令识别
-
代表方案:
-
Sensory TrulyHandsfree(超低功耗 KWS,可在 Cortex-M4 上运行,功耗 < 1mA)
-
Espressif ESP-Skainet(ESP32 平台本地唤醒词识别)
-
AISPEECH 芯片 AISP210、思必驰 DH系列
-
📉 关键词识别耗电最低仅在 几十~几百微安量级(uA),适合长时间监听。
2. 使用专用低功耗语音芯片
这类芯片集成了语音前处理、KWS/ASR 加速器,主控只需唤醒读取结果。
芯片 | 特点 |
---|---|
AISPEECH AISP210 | 超低功耗,支持离线唤醒 + 命令词 |
全志 T113-S3、V831 | 较低功耗本地识别 |
中科蓝讯 AB5336U | 内置麦克风前端 + 本地命令识别 |
赛昉 RISC-V芯片 + KWS模型 | 可跑 KWS 模型,如TinyML |
3. TinyML 本地部署
-
使用轻量级语音模型(如 TensorFlow Lite Micro)
-
运行在 ARM Cortex-M 或 RISC-V MCU 上
-
模型量化+剪枝后可以控制在 几十 KB
-
示例模型:
-
Google 的
micro_speech
模型(支持yes/no等命令) -
Edge Impulse 平台自动部署优化模型
-
📉 运行功耗可低至 1~2mA 活动功耗 + 几百 uA idle监听
✅ 三、低功耗语音识别架构建议(适合 IoT)
场景:电池供电的设备(如遥控器、穿戴设备、空调控制器)
📦 架构分层建议:
层级 | 功能 | 推荐方案 |
---|---|---|
麦克风/前端 | PDM/I2S 麦克风(低功耗) | Knowles SPH0645、TDK INMP441 |
唤醒词检测 | 本地低功耗模型 | Sensory、ESP-Skainet |
命令词识别 | 本地模型(有限命令)或云端 | TinyML 本地模型 或 UniCloud |
MCU | Cortex-M4/M33,支持 DSP/FFT | STM32L4/ESP32-C3/RV系列 |
节能策略 | MCU休眠 + 唤醒词触发 | RTC唤醒、中断唤醒等 |
✅ 四、总结:有没有低功耗语音识别?
✅ 有,关键是 拆解语音识别功能,用合理的模块和架构实现低功耗:
功能 | 是否有低功耗实现? | 典型功耗范围 |
---|---|---|
唤醒词检测(KWS) | ✅ 有 | < 0.5mA |
本地命令词识别 | ✅ 有限命令支持 | 1~5mA 执行时 |
实时语音识别(长句) | ❌ 功耗高(建议云端) | 100mA+ |