Datawhale开源学习 &《机器学习》 第三章 线性模型

本文深入探讨了线性回归和线性判别分析(LDA)的基础理论,从最小二乘法到逻辑回归,再到LDA的二维情况解释。线性回归通过最小化误差来估计参数,逻辑回归则利用广义线性模型和交叉熵解决非线性问题。LDA通过最大化类间距离和最小化类内距离来寻找投影向量。此外,文章还提及了多分类学习的策略,如One-vs-One和One-vs-Rest。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


前言

线性模型其实从很早之前就开始接触,只是没有系统地学习,更没有发现原来其中有如此深的严格证明,需要巩固。

一、线性回归

从开始的一元线性回归模型开始学习,接触到最小二乘法、加权最小二乘法用于参数估计,并且可以利用极大似然估计、凸函数性质进行证明求得参数,这时候得到的值是一个闭式解。
而后接触对数几率回归(或称为逻辑回归),按照机器学习三要素——首先将这个非线性问题转化成集合问题,即找到一个单调可微函数,进而确定出一个广义线性模型;然后在策略部分可以利用极大似然估计、信息论中的信息熵/交叉熵等概念得出有关参数的损失函数,最后利用梯度下降法/牛顿法得出一个最优解(一般都是通过迭代得出的近似解)


二、线性判别分析LDA

  • 思想:(首先考虑:二维情况)
    每个样本投影在一个向量w上,使得同类样本的投影点尽可能相近,不同类的投影点尽可能远离,而最终得出的损失函数也是一个广义瑞利熵的概念,解得的Sb 相对于 Sw的广义特征值对应的 特征向量为所求的投影向量。当然,也可以将样本位数映射到N,此时W形成各个投影直线的列矩阵,W的闭式解是w1, w2, … wN-1对应的最大广义特征值所赌赢的特征向量组成的矩阵。

  • 未完待续


三、多分类学习

  • 学习策略: 利用拆解或者集成分类的方法进行学习。
  1. OVO One vs. One
  2. OVR One vs. Rest
  3. MVM Many vs. Many

四、 结尾

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值