机器学习基础:从数据处理到感知机实现
1. 数据预处理与模型选择基础
1.1 特征降维
在处理数据时,部分所选特征可能高度相关,存在一定冗余。此时,降维技术能将特征压缩到低维子空间。降维有诸多好处,比如减少存储空间,加快学习算法的运行速度。当数据集包含大量无关特征(即信噪比低)时,降维还能提升模型的预测性能。
1.2 数据集划分
为判断机器学习算法在训练集上的表现,以及能否很好地泛化到新数据,需将数据集随机分为训练集和测试集。训练集用于训练和优化模型,测试集则留到最后评估最终模型。
1.3 模型训练与选择
不同的机器学习算法适用于不同的问题。没有一种算法能在所有情况下都表现最优,就像不能只用锤子处理所有问题一样。因此,在实际应用中,需比较多种算法,选择性能最佳的模型。在比较之前,要确定衡量性能的指标,常用的是分类准确率,即正确分类实例的比例。
为解决在不使用测试集进行模型选择的情况下,如何知道模型在最终测试集和实际数据上的表现这一问题,可以采用“交叉验证”技术。交叉验证会将数据集进一步划分为训练子集和验证子集,以评估模型的泛化性能。同时,软件库中学习算法的默认参数不一定适合特定问题,因此需要使用超参数优化技术来微调模型性能。
1.4 模型评估与预测
选择在训练集上拟合的模型后,用测试集评估其在未见过数据上的表现,即泛化误差。若对性能满意,就可以用该模型预测新数据。需注意,特征缩放和降维等操作的参数仅从训练集获取,后续应用于测试集和新数据时也使用相同参数,否则测试数据的性能评估可能过于乐观。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



