多声部音乐乐器识别与蛋白质 - 蛋白质相互作用预测研究
1. 多声部音乐乐器识别
在多声部音乐中进行乐器识别是一项具有挑战性的任务。以下为你详细介绍相关的研究内容。
- 数据集 :实验采用的是 IRMAS 乐器数据集,包含 6705 个音频文件,这些文件是从 2000 多个不同录音中截取的 3 秒片段。数据集中涵盖了 11 种乐器,分别是大提琴、单簧管、长笛、原声吉他、电吉他、风琴、钢琴、萨克斯风、小号、小提琴和人声。
- 音频处理 :对数据集进行修改,在不干扰音频数据实际特征的情况下,向数据集中的一小部分添加线性噪声。这样做是为了确保训练步骤中,模型是针对接近实时场景的数据进行训练。
- 构建数据集 :
1. OneHotEncoding :为类别标签分配数值,然后将其转换为每个标签对应的全零数组,标签索引位置为 1。神经网络的输出形状是一个长度为 11 的数组,每个索引代表一种乐器。手动进行标签编码,因为它能让我们灵活地修改数据集,如洗牌、划分训练集和测试集、添加噪声等。
2. 噪声增强和训练 - 测试划分 :从之前导出的 .npy 文件构建数据集,将数据集按 4:1 的比例划分为训练集和测试集。仅对训练集的一小部分(35%)添加线性噪声,使音高增加噪声,但频率和 STFT 保持不变。使用 librosa 处理音频文件,并将处理后的 py 对象保存为 .npy 文件用于训练和测试。
- 训练配置 :
-
超级会员免费看
订阅专栏 解锁全文
41

被折叠的 条评论
为什么被折叠?



