曲线拟合——最小二乘法与高斯假设下的最大似然估计和最大后验估计

本文详细介绍了曲线拟合中的两种方法:最小二乘法和高斯假设下的最大似然估计与最大后验估计。通过平方和误差函数,展示了最小二乘法如何求解多项式曲线拟合,并引入正则项讨论了最大后验估计。同时,解释了高斯分布假设下,最大似然估计与平方和误差函数的关系,以及最大后验估计与带正则项平方和误差函数的联系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

曲线拟合——最小二乘法与高斯假设下的最大似然估计和最大后验估计

这一次推导一下采用最小二乘法进行曲线拟合,以及在高斯假设下采用最大似然估计和最大后验估计的曲线拟合。这也是《Pattern Recognition and Machine Learning》书中第一章的内容,相关公式编号与原书一致。

通过这个推导可以使我们看到最小二乘法与高斯假设下的最大似然估计之间的联系,以及带有系数的 l 2 \mathcal{l}_2 l2 范数正则项的最小二乘法与高斯假设下的最大后验估计之间的联系。

1. 使用平方和误差函数的多项式曲线拟合——最小二乘法

训练集包含 x x x N N N 个观测值 X = { x 1 , … , x N } \mathcal{X}=\{ x_1,\dots,x_N \} X={ x1,,xN} 及它们对应的目标值 T = { t 1 , … , t N } \mathcal{T}=\{ t_1,\dots,t_N \} T={ t1,,tN}

使用 M M M 阶多项式

(1.1) y ( x , w ) = w 0 + w 1 x + w 2 x 2 + ⋯ + w M x M = ∑ j = 0 M w j x j = x T w y(x,\mathbf{w}) = w_0 + w_1x + w_2x^2 + \cdots + w_Mx^M = \sum_{j=0}^M w_jx^j = \mathbf{x}^T\mathbf{w} \tag{1.1} y(x,w)=w0+w1x+w2x2++wMxM=j=0Mwjxj=xTw(1.1)

进行拟合。

推导:

设数据矩阵 X ∈ R N × ( M + 1 ) X \in \mathbb{R}^{N \times (M+1)} XRN×(M+1),系数向量 w ∈ R ( M + 1 ) × 1 \mathbf{w} \in \mathbb{R}^{(M+1) \times 1} wR(M+1)×1,目标向量 t ∈ R N × 1 \mathbf{t} \in \mathbb{R}^{N \times 1} tRN×1,预测向量 y ∈ R N × 1 \mathbf{y} \in \mathbb{R}^{N \times 1} yRN×1 ,其中

X = [ x 1 0 x 1 1 ⋯ x 1 M x 2 0 x 2 1 ⋯ x 2 M ⋮ ⋮ ⋮ ⋮ x N 0 x N 1 ⋯ x N M ] \mathbf{X} = \begin{bmatrix} x_1^0&x_1^1&\cdots&x_1^M \\ x_2^0&x_2^1&\cdots&x_2^M \\ \vdots&\vdots&\vdots&\vdots \\ x_N^0&x_N^1&\cdots&x_N^M \end{bmatrix} X=x10x20xN0x11x21xN1x1Mx2MxNM

w = [ w 0 w 1 ⋮ w M ] t = [ t 1 t 2 ⋮ t M ] y = [ y 1 y 2 ⋮ y M ] \mathbf{w} = \begin{bmatrix} w_0 \\ w_1 \\ \vdots \\w_M \end{bmatrix} \qquad \mathbf{t} = \begin{bmatrix} t_1 \\ t_2 \\ \vdots \\t_M \end{bmatrix} \qquad \mathbf{y} = \begin{bmatrix} y_1 \\ y_2 \\ \vdots \\y_M \end{bmatrix} w=w0w1wMt=t1t2tMy=y1

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值