回顾前面的SVM分类模型中,我们的目标函数是让最小,同时让各个训练集中的点尽可能远离自己类别一边的支持向量,即
;若加入一个松弛变量
,则目标函数变为
,对应约束条件变为
。
线性支持回归也是尽量将训练集拟合到一个线性模型。但是损失不是使用常用的均方差作为损失函数,而是定义一个常量
,对于某一个点
,如果
,则认定为没有损失。若
,则对应的损失为
回顾前面的SVM分类模型中,我们的目标函数是让最小,同时让各个训练集中的点尽可能远离自己类别一边的支持向量,即
;若加入一个松弛变量
,则目标函数变为
,对应约束条件变为
。
线性支持回归也是尽量将训练集拟合到一个线性模型。但是损失不是使用常用的均方差作为损失函数,而是定义一个常量
,对于某一个点
,如果
,则认定为没有损失。若
,则对应的损失为