回归估计方法解析与实践
在回归分析领域,有多种方法可用于对函数进行估计和优化。下面将详细介绍几种重要的回归估计方法,包括其原理、应用及相关实验结果。
1. 回归估计基础与支持向量的特性
在对函数进行近似时,如对sinc x函数的近似,不同精度下会呈现不同的效果。图9.3展示了从顶部到底部,以精度 ( \epsilon = 0.1, 0.2, 0.5 ) 对sinc x函数进行近似的情况。其中,顶部的实线和底部的虚线表示 ( \epsilon ) - 管的大小,围绕目标函数sinc x绘制,它们之间的虚线则是回归函数。图9.4从左到右展示了对sinc x函数(虚线)近似时的回归(实线)、数据点(小点)和支持向量(大点),可以注意到支持向量数量的减少。
理论上,如果仅存储支持模式,似乎可以作为一种有效的数据压缩方式,因为可以完全重构估计函数。然而,在处理有噪声的高维数据时,这种方法效果不佳。因为对于中等近似质量,支持向量的数量可能相当高。
2. ( \nu ) - SV回归算法
在某些情况下,我们希望估计尽可能准确,而不必事先指定特定的精度水平。于是,对 ( \epsilon ) - SVR算法进行了改进,提出了 ( \nu ) - SVR算法,它能自动计算 ( \epsilon )。
2.1 算法原理
为了从经验数据估计函数,在每个点 ( x_i ) 处允许一个误差 ( \epsilon ),超出 ( \epsilon ) 的部分由松弛变量 ( \xi_i^{(+)} ) 和 ( \xi_i^{(-)} ) 捕获,并通过预先选择的正则化常数 ( C ) 在目标函数中进行惩罚。通过常数 ( \nu
超级会员免费看
订阅专栏 解锁全文
3765

被折叠的 条评论
为什么被折叠?



