1.线性模型——解析法求解

本文介绍了线性模型的概念,特别是在回归问题中的应用。通过最小二乘法求解模型参数,并展示了在Python中如何实现。当样本数量少于特征数量时,可能会遇到奇异矩阵问题,导致求解失败。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概念

样本: x ⃗ = ( x ( 1 ) , x ( 2 ) , ⋯   , x ( n ) ) T \vec{x}=(x^{(1)},x^{(2)},\cdots,x^{(n)})^T x =(x(1),x(2),,x(n))T
(一般向量 w ⃗ , x ⃗ \vec{w},\vec{x} w ,x 都为默认为列向量 , w ⃗ T , x ⃗ T ,\vec{w}^{T},\vec{x}^{T} ,w T,x T横向量)
线性模型: f ( x ⃗ ) = w ⃗ ⋅ x ⃗ + b f(\vec{x})=\vec{w}\cdot\vec{x}+b f(x )=w x +b
所谓线性模型就是系列一次特征的线性组合,特征空间推广到 n 维,就是广义线性模型
常 见 的 广 义 线 性 模 型 { 岭回归 lasso回归  Elastic Net 逻辑回归 线性判别分析 常见的广义线性模型\begin{cases} \text{岭回归} \\ \text{lasso回归 }\\ \text{Elastic Net} \\ \text{逻辑回归}\\ \text{线性判别分析}\\ \end{cases} 广线岭回归lasso回归 Elastic Net逻辑回归线性判别分析

回归

数据集: T = { ( x 1 ⃗ , y 1 ) , ( x 2 ⃗ , y 2 ) , ⋯   , ( x N ⃗ , y N ) } T = \{(\vec{x_1},y_1),(\vec{x_2},y_2),\cdots,(\vec{x_N},y_N)\} T={ (x1 ,y1),(x2 ,y2),,(xN ,yN)}
其中, x i ⃗ ∈ X ⊆   R n , y i ∈ Y ⊆ R \vec{x_i} \in \mathcal{X} \subseteq\ \mathbb{R^n},y_i \in \mathcal{Y}\subseteq\mathbb{R} xi X Rn,yiYR
需要学习 f ( x ⃗ ) = w ⃗ ⋅ x ⃗ + b f(\vec{x})=\vec{w}\cdot\vec{x}+b f(x )=w x +b中的 w ⃗ \vec{w} w b b b。模型预测出来的 y y y 称为 y i ^ \hat{y_i} yi^ (一般笔者将其读作yi一尖儿尖儿)。计算过程中的优化目标,为损失函数。
损失函数 L ( f ) = ∑ i = 1 N ( y i ^ − y i ) 2 = ∑ i = 1 N ( w ⃗ ⋅ x ⃗ + b − y i ) 2 L(f)=\sum_{i=1}^{N}( \hat{y_i}-y_i)^2=\sum_{i=1}^{N}( \vec{w}\cdot\vec{x}+b-y_i)^2 L(f)=i=1N(yi^yi)2=i=1N(w x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值