机器学习笔记——线性模型

本文深入解析线性模型在机器学习中的应用,涵盖基本形式、线性回归、对数几率回归等内容,探讨了从简单到复杂的模型变化,以及如何通过最小二乘法和极大似然法进行参数估计。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一,基本形式

给定由d个属性描述的示例x = (x1;x2;...;xd),线性模型试图学得一个通过属性的线性组合来进行预测的函数:

向量形式写成:

其中,w = (w1;w2;...;wd)。

二,线性回归

对于输入的属性数目只有一个的简单情形,线性回归试图学得:

我们使用最小二乘法来求解w,b,即使用均方误差最小化来进行模型求解:

求解w,b的过程称为线性回归模型的最小二乘”参数估计“。

若样本由d个属性描述,此时我们试图学得:

这称为多元线性回归。

现实任务中,若样本的属性数目过多,会出现多个解,他们都能使均方误差最小化。选择哪一个解作为输出,将由学习算法的归纳偏好决定,常见的做法是引入正则化。

线性模型的变化:

考虑单调可微函数g(x),令

这样得到的模型称为”广义线性模型“,其中函数g(x)称为”联系函数“。显然,对数线性回归是广义线性模型在g(x) = ln(x)时的特例。

三,对数几率回归

线性模型除了可以进行回归学习,还可以做分类任务。

对于二分类任务,将广义线性模型中g-(x)函数替换为对数几率函数——

即可得到:

此模型称为”对数几率回归“或者”逻辑回归“,它是一种分类学习方法。

对于其中参数w,b的确定,可通过”极大似然法“来估计,具体内容不再赘述。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值