正则化网络与支持向量机:理论与应用
在机器学习领域,从示例中学习是一个核心问题,特别是在处理从稀疏数据中近似多元函数的回归问题时。正则化网络(Regularization Networks,RN)和支持向量机(Support Vector Machines,SVM)是解决这类问题的重要技术。本文将深入探讨这两种技术,并将它们置于Vapnik的统计学习理论框架下进行统一分析。
1. 学习问题的理论框架
学习从示例中学习的问题可以看作是从稀疏数据中近似多元函数的回归问题。由于这个问题是病态的,经典的解决方法是正则化理论。标准正则化理论将回归问题表述为一个变分问题,即找到一个函数 $f$,使得以下泛函最小化:
[
\min_{f \in F} R_{reg}[f] = \frac{1}{m} \sum_{i=1}^{m} (y_i - f(x_i))^2 + \lambda |f| k^2
]
其中,$|f|_k^2$ 是再生核希尔伯特空间(RKHS)$F$ 中的一个范数,由正定函数 $k$ 定义;$m$ 是数据点或示例的数量;$\lambda$ 是正则化参数。在一般条件下,该方程的解为:
[
f(x) = \sum {i=1}^{m} \alpha_i k(x, x_i)
]
然而,标准正则化的泛函对于有限训练数据集缺乏严格的证明。Vapnik的理论为从有限集学习的正则化泛函提供了基础,并将功能分析与现代概率统计理论相结合。其基本思想是,对于有限的训练示例集,寻找最佳模型或近似函数时,需要将搜索范围限制在一个适当“小”的假设空间内,以避免过拟合。
超级会员免费看
订阅专栏 解锁全文
968

被折叠的 条评论
为什么被折叠?



