正规方程求特征参数推导

博客主要围绕多变量线性回归展开,先给出简易版推导,列出代价函数,对其预测值与真实值差的平方累加求导,化简式子后求导并令导函数为零得到结果。还给出详细版推导,介绍多变量线性回归代价函数,通过求解方程找出使代价函数最小的参数,最终得出正规方程及特征参数表示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

先给出结论:在这里插入图片描述

简易版:

首先列出代价函数在这里插入图片描述,其中X,Y,θ是向量或者矩阵。

接下来我们要对代价函数Ĵ中预测值与真实值的差的平方的累加进行求导。

首先第一步,在这里插入图片描述消除累加。

简单来复习一下现代知识:假设向量在这里插入图片描述,则在这里插入图片描述在这里插入图片描述 * 在这里插入图片描述 = 在这里插入图片描述

知道如何消去累加之后再将式子做进一步化简:
在这里插入图片描述在这里插入图片描述在这里插入图片描述
好了现在终于把原式子化简完成,接下来就要进行求导了。大家应该都知道多项式求导等于对各项求导相加。
我们将上式对θ求导:

第一项:\ThetaTXTX\Theta是一个标量,所以是标量对向量求导 得2X^TX\Theta

第二项:同样是标量对向量求导 得X^TY

第三项:X^TY

第四项:0

综上,对上式求导的结果是:-2XTY+XTX\Theta

为了取到代价函数对最小值,所以让导函数等于零。

就得到了在这里插入图片描述

详细版:

多变量线性回归代价函数为:

在这里插入图片描述

其中:

在这里插入图片描述

正规方程是通过求解下面的方程来找出使得代价函数最小的参数:

在这里插入图片描述

设有m个训练实例,每个实例有n个特征,则训练实例集为:

在这里插入图片描述
其中这里写图片描述表示第i个实例第j个特征。

特征参数为:

在这里插入图片描述

输出变量为:

在这里插入图片描述

故代价函数为:

在这里插入图片描述

进行求导,等价于如下的形式:

在这里插入图片描述

  • 其中第一项:

在这里插入图片描述

  • 第二项:

在这里插入图片描述

该矩阵求导为分母布局下的标量/向量形式,故有:

在这里插入图片描述

  • 第三项:

在这里插入图片描述

该矩阵求导为分母布局下的标量/向量形式,故有:

在这里插入图片描述

  • 第四项:

在这里插入图片描述
该矩阵求导为分母布局下的标量/向量形式,故有:

在这里插入图片描述

综上,正规方程为:

在这里插入图片描述

最终可得特征参数的表示:

在这里插入图片描述

### 机器学习中正规方程推导过程 在机器学习领域,特别是线性回归问题中,目标是最小化预测值与真实值之间的差距。为了实现这一目标,可以采用梯度下降方法迭代更新参数,也可以通过解析方式一次性计算最优参数解——这就是所谓的正规方程。 #### 矩阵运算基础知识 对于后续推导过程中涉及的一些基本概念和公式: - **矩阵转置**:如果有一个大小为$m\times n$ 的矩阵 $A=[a_{ij}]$ ,那么它的转置就是$n\times m$ 维的新矩阵 ${\bf A}^\top =[a_{ji}]$ 。这意味着原始矩阵中的每一行变成了新矩阵的一列[^3]。 - **导法则**:给定一个关于向量 $\theta$ 的函数$f(\theta)$ , 对于该函数相对于$\theta_i$ 进行偏微分得到的结果构成一个新的向量形式${{\partial f}\over {\partial \theta}}=(f'_1,f'_2,\cdots,f'_n)^T$ 。 #### 构建代价函数并解最优点 定义假设函数$h_\theta(x)=X\cdot\theta$,其中$X$表示输入特征组成的样本集矩阵,$\theta$代表待估计权重系数向量;再设定损失函数$L=\frac{1}{2}(y-X\theta)(y-X\theta)^T$来衡量模型输出与实际标签间的偏差程度。这里乘以因子$\frac{1}{2}$是为了简化之后可能出现的二次项系数[^4]。 对上述表达式按照变量$\theta_j(j=0,...,p)$分别做偏导数操作可得: $$J'(\theta)=-X^{T}(Y-X\theta)+C$$ 为了让这个导数值等于零从而获得局部极小值点,则有: $$ X^{T}(Y-X\theta)=0 $$ 进一步整理得出最终结论即为我们所熟知的正规方程形式: $$ \hat{\theta} =(X^{T}X)^{-1}X^{T}Y $$ 这表明只要能获取到训练数据对应的自变量矩阵及其因变量向量就可以直接算出最佳拟合直线斜率以及截距等参数而无需像随机梯度下降那样逐步逼近全局最优解了。 ```python import numpy as np def normal_equation(X, y): theta_hat = np.linalg.inv(X.T @ X) @ X.T @ y return theta_hat ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值