硬件感知概率电路实验与学习策略解析
在机器学习和硬件优化的领域中,如何在保证模型性能的同时降低计算成本,以及提高模型对缺失特征的鲁棒性,是非常重要的研究方向。本文将深入探讨相关实验和学习策略,为大家揭示其中的奥秘。
1. 特征成本与帕累托最优配置实验
在实验中,数据集的特征提取过程包括对感官信号进行采样、应用三个低通滤波器,并对所得信号计算统计量(如均值、最大/最小值、相关性和标准差)。其中,滤波操作占据了大部分计算量,因为与采样和提取统计特征相比,它需要更多的操作。例如,计算样本均值仅需一次乘法累加(MAC)操作,而三阶低通滤波器至少需要九次。因此,假设每个特征提取的成本为30次MAC操作。
帕累托最优配置实验分为三个阶段,以训练集Ftrain为例:
1. 模型映射 :将κ中的每个模型映射到权衡空间。
2. 特征和传感器集缩放 :使用SCALESI算法对特征和传感器集(F, S)进行缩放,提取局部帕累托最优配置。
3. 精度降低 :降低帕累托修剪配置的精度,得到最终的帕累托前沿。
通过实验发现,该方法可以在保持较高训练集准确率的同时,显著降低成本。例如,通过修剪28个可用特征中的11个,CHA节省了53%的成本;当允许进一步的0.4%准确率损失时,使用较小的模型(κ3)、修剪18个特征、关闭一个传感器并使用32位表示,成本仅为原始成本的13%。
实验结果还表明,该方法在测试集上的表现与TAN分类器相当,但能够在更广泛的成本范围内运行,并且具有多种系统配置可供选择。此外,对推理成本CM和传感器成本C