模型 |
概念 |
model (X → Y 的映射关系) 假设空间:决策函数的集合 F = {f|Y=f(X)} |
策略(从假设空间中选取最优的model) 损失函数:一次预测的好坏 风险函数:平均意义下的好坏 |
计算方法(计算求解最佳参数) eg. 梯度下降 |
---|---|---|---|---|
线性 回归 |
线性回归是监督学习方法之一,可以用来解决分类和回归问题。 它假设变量和预测目标之间存在线性关系。学习目标是求解线性函数中的各个参数 假设:Y服从高斯分布 |
y = p0 + p1*x11 + p2*x12 + ... +pk*x1k + 误差 |
找到以上任意指标的最小值 |
梯度下降求解w1, w2, w3 最小二乘法 |
逻辑 回归 |
逻辑回归是用于二分类的监督算法。它通过Logistic/Sigmoid 函数来对样本属于类1的概率进行建模。 训练时期,目标在于确定Sigmoid函数中的参数。 预测时,对于一个新的x, 如果逻辑函数给出的概率值大于某个阈值(比如0.5),则认为x属于类1 Y服从伯努利分布(丢偏心硬币) 优点:
缺点: 不能使用交叉特征,表达能力弱,信息损失多,甚至出现“辛普森悖论 辛普森悖论:在对样本集合进行分组研究时,在分组比较中占优势的一方,在汇总实验中反而是劣势的一方 |
为何逻辑回归选择交叉熵函数作为损失函数,而不是MSE?
|
有监督学习模型总结
于 2021-05-25 10:33:12 首次发布