利用深度学习可解释性技术进行音频分类研究及树莓派语音命令识别
1. 利用深度学习可解释性技术进行音频分类研究
1.1 概述
深度学习网络常被视为“黑箱”,因为其决策原因并非总是显而易见。可解释性技术能将网络行为转化为人类可理解的输出,从而解答关于网络预测的问题。本部分将使用可解释性技术研究经过训练用于音频数据分类的深度神经网络的预测结果,采用迁移学习对预训练的卷积神经网络 VGGish 进行再训练,以对一组新的音频信号进行分类。
1.2 数据加载
- 下载并解压数据集 :从 MathWorks 网站下载环境声音分类数据集 ESC - 10.zip 并解压。
rng("default")
zipFile = matlab.internal.examples.downloadSupportFile("audio","ESC-10.zip");
filepath = fileparts(zipFile);
dataFolder = fullfile(filepath,"ESC-10");
unzip(zipFile,dataFolder)
- 创建音频数据存储对象 :创建
audioDatastore对象管理数据,并将其拆分为训练集和验证集。使用countEachLabel显示声音类别的分布和唯一标签的数量。
<
超级会员免费看
订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



