机器学习基础与感知机算法实现
一、机器学习基础概念
1.1 特征降维
在机器学习中,部分所选特征可能高度相关,存在一定程度的冗余。此时,降维技术可将特征压缩到低维子空间。降维的优势明显,一方面减少了存储空间的需求,另一方面能使学习算法运行得更快。当数据集包含大量无关特征(即噪声),也就是信噪比低时,降维还能提升模型的预测性能。
1.2 数据集划分
为确保机器学习算法不仅在训练数据集上表现良好,还能对新数据有良好的泛化能力,我们需将数据集随机划分为训练集和测试集。训练集用于训练和优化机器学习模型,而测试集则留到最后用于评估最终模型。
1.3 模型训练与选择
不同的机器学习算法适用于不同的问题。从David Wolpert的“没有免费的午餐”定理可知,不存在一种通用的、无需成本的学习方法。每个分类算法都有其固有偏差,若不对任务做假设,单一分类模型并无绝对优势。因此,实际应用中,我们至少要比较几种不同的算法,以训练并选出性能最佳的模型。
在比较不同模型前,需确定一个衡量性能的指标,常用的是分类准确率,即正确分类实例的比例。为解决在不使用测试集进行模型选择的情况下,如何知晓模型在最终测试数据集和实际数据上的性能这一问题,可采用“交叉验证”技术。交叉验证会进一步将数据集划分为训练子集和验证子集,以估计模型的泛化性能。此外,软件库中学习算法的默认参数未必适合我们的具体问题,所以后续会频繁使用超参数优化技术来微调模型性能。超参数是指那些并非从数据中学习得到的参数,可类比为模型的调节旋钮,通过调整它们能提升模型性能。
1.4 模型评估与预测
选择在训练数据集上拟
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



