神经网络:原理、优化与应用
1. 引言
在回归和分类问题中,我们常常会使用由固定基函数的线性组合构成的模型。这些模型具有一定的分析和计算优势,但在实际应用中,却受到维度灾难的限制。为了将这类模型应用于大规模问题,就需要让基函数能够适应数据。接下来,我们将探讨几种不同的解决方法,并着重介绍神经网络这一高效的统计模式识别模型。
2. 传统模型及其局限性
以往在回归和分类问题中使用的模型,是由固定基函数的线性组合构成。这些模型虽然具有一定的分析和计算优势,但在实际应用中,其适用性受到维度灾难的限制。为了将这类模型应用于大规模问题,需要对基函数进行调整以适应数据。
3. 支持向量机(SVM)
支持向量机(SVM)通过以下方式解决基函数适应数据的问题:
- 定义基函数 :首先定义以训练数据点为中心的基函数。
- 选择子集 :在训练过程中,从这些基函数中选择一个子集。
SVM 的优点在于,尽管训练涉及非线性优化,但目标函数是凸函数,因此优化问题的求解相对直接。不过,最终模型中的基函数数量通常比训练点的数量小很多,但仍然相对较大,并且通常会随着训练集的大小而增加。
4. 相关向量机(RVM)
相关向量机(RVM)同样从固定的基函数集合中选择一个子集,通常会得到更稀疏的模型。与 SVM 不同的是,RVM 还能产生概率输出,但这是以训练过程中的非凸优化为代价的。
5. 前馈神经网络(多层感知机)
另一种方法是预先固定基函数的数量,但允许它们具有适应性
超级会员免费看
订阅专栏 解锁全文
4709

被折叠的 条评论
为什么被折叠?



