目录
一元线性回归

上图是正交回归示例图
它试图找到一个正交拟合线,使得实际观测值在拟合线上的投影和预测值之间的残差平方和最小化。

上图是线性回归示例图
为了能进行数学运算,样本中的非数值类属性都需要进行数值化。对于存在“序”关系的属性,可通过连续化将其转化为带有相对大小关系的连续值;对于不存在“序”关系的属性,可根据属性取值将其拆解为多个属性
“min”和“arg min”的区别
前者输出目标函数的最小值,而后者输出使得目标函数达到最小值时的参数取值。
闭市解
闭式解是指可以通过具体的表达式解出待解参数
梯度下降法
梯度下降法利用“梯度指向的方向是函数值增大速度最快的方向”这一特性,每次迭代时朝着梯度的反方向进行,进而实现函数值越迭代越小

牛顿法
牛顿法的迭代公式:

拟牛顿法
牛顿法每次迭代时需要求解海森矩阵的逆矩阵,该步骤的计算量很大,所以将求解海森矩阵的逆矩阵改成求解计算量更低的近似逆矩阵,称为拟牛顿法。
线性回归
目标是最小化观测值和预测值之间的残差平方和。最小二乘法也就是最小化均方误差。
多种类型的回归

最小二乘法 :基于均方误差最小化来进行模型求解的方法

损失函数

求使得这个式子值最小的w与b的值
极大似然估计

文章介绍了回归分析的几种类型,包括一元和多元线性回归,以及对数几率回归。线性回归通过最小化残差平方和来求解模型,梯度下降和牛顿法是常用的优化算法。对数几率回归是基于极大似然估计和信息论的二分类模型,其损失函数与sigmoid函数相关。此外,还提到了线性判别分析,这是一种考虑类别信息的监督降维方法。
最低0.47元/天 解锁文章
1532

被折叠的 条评论
为什么被折叠?



