(一)回归模型
1.常见损失函数
2.期望风险函数:这是真实的风险,由于不知道联合分布P(X,Y),因此无法计算
3.经验风险函数
注:1.训练数据样本的平均损失
2.训练数据样本越多(N),越逼近期望风险函数
(二)最小经验风险函数:训练样本数目固定,求w使得经验风险最小
例子:当样本数目很大时,经验风险可以很好的逼近期望风险。
sklearn.linear_model.linearRegression
1.使用的经验风险函数(经验损失函数)
2.使用的损失函数(平方损失)
(三)结构风险最小化:训练样本数目固定,经验风险最小化求到w,此时问题:当样本数目很大时,经验风险可以很好的逼近期望风险。当样本数目有限偏少,会产生过拟合(模型复杂度,权重个数多),为此需要对权重做处理,惩罚项,正则化权重。
例子:岭回归,Ridge(阿尔法或lamda固定求出w)、RidgeCV(多个阿尔法或lamda中求出多个w然后选择最好的一个w),正则项为||w||的L2范数,lamda(阿尔法a)越大,||w||的L2范数越小,反之,也是一样。
sklearn.linear_model.Ridge
sklearn.linear_model.RidgeCV
1.使用的结构风险函数(经验损失函数+正则项)
2.使用的损失函数(平方损失),正则化项函数(L2范数)