特征剪枝超参数优化在机器学习中的应用
1. 引言
特征剪枝是机器学习中的一项关键技术,它通过去除不重要的特征来简化模型,从而提高模型的效率和性能。在资源受限的嵌入式设备上,特征剪枝尤为重要,因为它可以帮助减少计算成本和能耗。本文将详细介绍特征剪枝的超参数配置及其对模型性能和成本的影响,通过具体实验数据展示不同设置下的效果。我们将从实验设置、超参数选择及其影响等方面进行探讨,帮助读者更好地理解和应用这一技术。
2. 实验设置
特征剪枝实验基于人体活动识别(HAR)数据集进行,该数据集包含智能手机加速度计和陀螺仪数据,以及六种不同的活动。实验的目的是找到适当的超参数配置,以在不影响模型性能的前提下最大限度地降低成本。具体实验步骤如下:
- 数据预处理 :数值特征使用离散化方法,并使用独热编码进行二值化。数据集被随机划分为75%训练集、15%测试集和10%验证集。
- 特征选择 :使用带有TAN分类器的包装特征选择算法对二值化训练集进行特征预选择,设定55个二进制特征的限制。
- 模型学习 :使用D-LEARNPSDD算法学习判别式-生成式模型,每N/10次迭代保留一个模型,直到收敛。
- 性能评估 :在验证集上应用具有可用超参数值的切换策略,并选择成本与准确率的帕累托最优集。
3. 超参数选择
特征剪枝策略的行为由两个超参数决定:策略可以被评估的频率 ( T_{Policy} ) 和最
超级会员免费看
订阅专栏 解锁全文
1188

被折叠的 条评论
为什么被折叠?



