PRML第三章读书笔记——Linear Models For Regression 几何解释、多重共线性、贝叶斯线性回归、贝叶斯模型比较/模型证据/边缘似然、线性回归证据近似/参数有效数量

本文深入解析了《模式识别与机器学习》第三章线性回归的内容,涵盖了线性基函数模型、贝叶斯线性回归、模型比较、证据近似及参数的有效数量等关键概念。

(拖了8个多月,我终于又开始读PRML了。从年初到现在,中间被很多其他事情耽搁了,包括读CVMLI、重学线性代数、刷闫令琪老师的CG Games101、读花书,等等……终于轮到PRML了,开心的一批。这回尽量每周读一章,嗯,尽量……)

3.1 Linear Basis Function Models

P143 线性回归的几何解释

记训练集标注为 t = ( t 1 , . . . , t N ) T \bf t = (t_1, ..., t_N)^T t=(t1,...,tN)T,并构成标注空间 R N \mathbb R^N RN S \mathcal{S} S是能在训练集的标注空间中用广义线性回归张成的超平面

  • 这里线性回归的基可以是带核 φ ( X ) \varphi (X) φ(X)的,实际上带核的仍然是张成超平面,而不是曲面,超平面的第 i i i个基由 φ i ( X ) \varphi_i(X) φi(X)决定, φ i \varphi_i φi表示第 i i i个特征, X X X表示所以的N个数据。
    这样线性回归是求了标注空间中训练集所在位置在超平面上的投影,垂直距离即为最小二乘的结果。
    在这里插入图片描述

P143 多重共线性

之前只知道多重共线性不好,到底哪里不好一直说不清楚。这里把它讲清楚。
多重共线性的灾难在于参数值爆炸

  • 我们记训练集(经过核变换后)为 Φ ∈ R N × M \Phi \in \mathbb{R}^{N \times M} ΦRN×M,其中 M M M是特征维度。用 r ( ⋅ ) r(\cdot) r()表示秩, r ( Φ ) < M r(\Phi)<M r(Φ)<M时,即产生了多重共线性问题,也即特征之间线性相关。注意到 r ( Φ ) = r ( Φ T Φ ) = r ( Φ Φ T ) r(\Phi) = r(\Phi^T \Phi) = r(\Phi \Phi^T) r(Φ)=r(ΦTΦ)=r(ΦΦT),(注:方法为证明 Φ x = 0 \Phi x =0 Φx=0 Φ T Φ x = 0 \Phi^T \Phi x= 0 ΦTΦx=0同解)。所以如何判断 r ( Φ ) r(\Phi) r(Φ) M M M的关系,只需要计算 Φ T Φ \Phi^T \Phi ΦTΦ是否奇异。
  • 实际上,如果 Φ T Φ \Phi^T \Phi ΦTΦ接近奇异,即行列式很小,那么线性回归的参数闭式解 ( Φ T Φ ) − 1 Φ T t (\Phi^T \Phi)^{-1} \Phi^T \bf t (ΦTΦ)1ΦTt会非常大
  • 从几何角度解释,即两个基向量方向非常近,那么为了表达出与这两个基向量几乎垂直的方向上的位置,这两个向量需要不断抵消,系数会增长非常快!

3.3 Bayesian Linear Regression

参考博客频率学派 vs 贝叶斯学派

P156 贝叶斯线性回归形式化

贝叶斯回归中,不断加样本,精确度矩阵的正定性会越强。
p ( t ∣ X , w , β ) = ∏ n = 1 N ( t n ∣ w T ϕ ( x n ) , β − 1 ) p ( w ) = N ( w ∣ m 0 , S 0 ) \begin{aligned} p( \textbf t| \textbf X, \textbf w,\beta) &=\prod_{n=1}^N \mathcal (t_n| \textbf w^T\phi(\textbf x_n), \beta^{-1}) \\ p( \textbf w) &=\mathcal N( \textbf w|\textbf m_0, \textbf S_0) \end{aligned} p(tX,w,β)p(w)=n=1N(tnwTϕ(xn),β1)=N(wm0,S0)
可以得到参数后验分布
p ( w ∣ t ) = N ( w ∣ m N , S N ) m N = S N ( S 0 − 1 m 0 + β Φ T t ) S N − 1 = S 0 − 1 + β Φ T Φ \begin{aligned} p(\textbf w| \textbf t) &=\mathcal N (\textbf w|\textbf m_N,\textbf S_N) \\ \textbf m_N&=\textbf S_N(\textbf S_0^{-1} \textbf m_0+\beta {\Phi}^T \textbf t) \\ \textbf S_N^{-1} &=\textbf S_0^{-1}+ \beta \Phi^T\Phi \end{aligned} p(wt)mNSN1=N(wmN,SN)=SN(S01m0+βΦTt)=S01+βΦTΦ
常取 m 0 = 0 \textbf m_0 = 0 m0=0 S 0 = α − 1 I \textbf S_0=\alpha ^{-1}\textbf I S0=α1I,所以
m N = β S N Φ T t S N − 1 = α I + β Φ T Φ \begin{aligned} \textbf m_N &=\beta \textbf S_N \Phi^T \textbf t \\ \textbf S_N^{-1} &=\alpha \textbf I + \beta \Phi ^T \Phi \end{aligned} mNSN1=βSNΦTt=αI+βΦ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值