- 前言
在当今的物联网时代,语音辨识技术的应用日益广泛。本文将介绍如何部署TinyML语音辨识系统,并详细记录从资料收集到模型部署的过程。
- TinyML快速入门:使用Zilltek 麦克风实现TinyML语音辨识
-

TinyML语音辨识在开发板上的部署 TinyML的实作始于资料的收集。在这一阶段,我们选择了speech_commands资料集进行模型训练。该资料集包含多个语音指令类别,如"down", "go", "left", "no", "right", "stop", "up", "yes"等,可在Tensorflow官方GitHub中找到。
开发环境方面,我们使用Tensorflow2.10和python3.10进行开发,硬体方面则选用了esp32s3-c1。麦克风使用Zilltek ZTS6672 mems mic,IDF使用ESP-IDF,建置project输入指令:
idf.py create-project-from-example "esp-tflite-micro:micro_speech"
会得到esp-tflite-micro的档案

我们使用example中的micro_speech,内容我们需要做一些修改,首先在audio_provider.cc中对i2s输入做一些设定。<

本文详细描述了如何在ESP32s3-c1开发板上部署TinyML语音辨识系统,包括资料集选择、开发环境配置、模型训练、量化与部署,以及解决常见问题的方法。
最低0.47元/天 解锁文章
228

被折叠的 条评论
为什么被折叠?



