正则化网络与支持向量机:原理、应用与关联
在机器学习领域,从示例中学习是一个核心问题,特别是从稀疏数据中近似多元函数的回归问题。正则化网络(Regularization Networks,RN)和支持向量机(Support Vector Machines,SVM)是解决这类问题的重要技术。本文将在Vapnik的统计学习理论框架下,对这两种技术进行统一介绍。
1. 学习问题的理论框架
学习从示例中学习的问题可以看作是从稀疏数据中近似多元函数的回归问题。由于该问题是不适定的,经典的解决方法是正则化理论。标准正则化理论将回归问题表述为一个变分问题,即找到一个函数 $f$ 来最小化以下泛函:
[
\min_{f\in F} R_{reg}[f] = \frac{1}{m} \sum_{i=1}^{m} (y_i - f(x_i))^2 + \lambda |f| k^2
]
其中,$|f|_k^2$ 是由正定函数 $k$ 定义的再生核希尔伯特空间(RKHS)$F$ 中的范数,$m$ 是数据点的数量,$\lambda$ 是正则化参数。在一般条件下,该方程的解为:
[
f(x) = \sum {i=1}^{m} \alpha_i k(x, x_i)
]
然而,标准正则化的泛函在有限训练数据集上缺乏严格的理论依据。Vapnik的统计学习理论为有限集学习的正则化泛函提供了理论基础,并扩展了经典的正则化框架。其基本思想是将寻找最佳模型或近似函数的搜索限制在一个适当“小”的假设空间中,以避免过拟合,提高模型的泛化能力。
2. 统计学习理论概述
统计学习理论基于经验风
超级会员免费看
订阅专栏 解锁全文
4625

被折叠的 条评论
为什么被折叠?



