机器学习算法之线性模型

本文详细介绍了线性模型,包括线性方程与非线性方程的概念,线性模型的基本形式,线性回归的原理,以及对数线性回归和对数几率回归的应用。线性回归中,最小二乘法被用来解决参数估计问题,而对数几率回归则是一种用于分类的线性模型。文章还讨论了线性回归何时不必考虑偏置项,以及多元回归的使用依据。此外,证明了对数回归目标函数是非凸的,但其对数似然函数是凸的。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.线性方程与非线性方程

线性方程:代数方程如y = 2x + 5,其中任何一个变量都为1次幂,这种方程的图像为一条直线(平面),所以称为线性方程

非线性方程:y**2 = 2x + 5,因变量和自变量之间不是线性关系,如平方关系、对数关系、指数关系和三角函数关系等

2.基本形式

给定有m个属性描述的实例x=(x1,x2...,xm),其中xi是x在第i个属性上的取值,线性模型(linear model)试图学得一个通过属性组合的线性组合来进行预测的函数,即

                                               f(x) = w1*x1 + w2*x2 +...+ wm*xm + b

线性模型形式简单、易于建模,但却蕴涵着机器学习中一些重要的基本思想。许多功能更为强大的非线性模型可以在线性模型的基础上通过引入层级结构或高维映射而得。

3.线性回归

线性模型试图学得f(x) = w*x + b,使得f(x)约等于y,如何确定w和b呢?这是一个组合问题,已知一些数据,如何求里面的未知参数,给出一个最优解。这是一个线性矩阵方程,直接求解很可能无法求解,有唯一解的数据集更是微乎其微,基本上都是解不存在的超定方程组。在这种情况下,我们将参数求解问题转化为误差最小化问题,求出一个最接近的解,这就是一个松弛求解。

均方误差作为回归任务中最常用的性能度量,因此我们可以试图让均方误差最小化,即


基于均方误差最小化来进行线性模型的求解方法称为“最小二乘法”。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。求解w和b使均方误差最小化的过程,称为线性回归模型的最小二乘“参数估计(para

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值