线性模型小结

本文全面解析线性模型,包括判别函数方法、概率产生模型、概率区分模型等内容。介绍了最小二乘分类、Fisher线性分类及感知器算法等,并讨论了Logistic回归及其在多类别情况下的应用。

线性模型小结

    线性模型,顾名思义,就是使用将特征的线性组合得到的超平面划分特征空间的方法。简单的在二维空间中,线性模型就是一条直线,而在三维空间中,线性模型就是一个平面,它们都可以将所在空间划分为两部分。当有多个超平面的时候可以将空间划分为多个区域。

怎么得到线性模型?在PRML中将主要的方法划分为三种方式

1:discriminant function即判别函数法

主要途径是得到一个判别函数,通过函数来对样本空间进行划分。

2:使用贝叶斯理论求后验概率P(Ck|X),由类条件概率和先验概率得到后验概率。generative models.

3:另一种方法也是求后验概率P(Ck|X),但是并不是使用贝叶斯理论先求条件概率和先验概率来得到。而是直接构建后验概率的模型,然后通过训练集来优化该模型的参数,可以使用最大似然等方法来解决。Logistic regression. Iterative reweighted least squares.

本章的内容也是按照这个基本的结构来划分的:

一:判别函数方法

1:least squares for classification

最小二乘分类,最小错误率                          

2:Fisher’s linear discriminant

Fisher线性分类:样本在投影空间中的最大可分性

3:Perceptron algorithm

感知器算法:在样本线性可分的情况下能保证收敛,并且分类超平面结果不确定,取决于初始化权值。

二:概率产生模型(probabilistic generative models)

通过贝叶斯理论将后验概率表示为先验概率和类条件概率,得到Logistic函数的形式,然后通过最大似然估计来优化Logistic函数的参数。主要讨论了样本的类条件分布概率符合高斯分布情况,两类样本可以有相同的协方差矩阵,也可有不同的协方差矩阵,主要讨论前者。然后是讨论了离散特征的处理,以及用指数族来表示其通用形式。

三:概率区分模型

在二中的处理方式是一种间接的处理方式,另一种相对应的模型就是直接构建其后验概率模型,通过最大似然估计来优化其参数。

代表性的方法就是Logistic regression。关于权值的更新介绍了Iterative reweighted least squares方法来更新权值。

probit regression:使用probit activation function来对样本进行分类。

然后简单的介绍多类别情况的Logistic regression。Canonical link function是Logistic regression的统一表示形式,跟指数族类似。

四:拉普拉斯逼近(Laplace Approximation)

前面讲的很多模型都是针对高斯分布的,当样本不符合高斯分布的时候显然就不能再使用,所以该节介绍了一种使用高斯分布逼近非高斯分布的技术:Laplace Approximation。主要分为三步:找最大点,泰勒展开,归一化。

该节的另一个重点部分是从数学角度分析了模型选择问题:分析了过拟合产生的原因以及模型选择方法BIC(Bayesian Information Criterion)方法。

五:Bayesian Logistic Regression

将拉普拉斯逼近用于Logistic regression。

http://hi.baidu.com/macula7/blog/item/9e656851dc099d561138c276.html
### 一元线性回归的总结与实现分析 一元线性回归是一种用于建立自变量 \(x\) 和因变量 \(y\) 之间线性关系的统计方法。其基本形式为: \[ y = k \cdot x + b \] 其中,\(k\) 是权重(或斜率),\(b\) 是偏置项(或截距)。目标是通过最小化预测值和真实值之间的误差来估计参数 \(k\) 和 \(b\) [^3]。 #### 数据假设与模型前提 在构建一元线性回归模型时,需要满足以下假设: 1. 自变量和因变量之间存在线性关系。 2. 模型的误差项服从正态分布。 3. 各个观测值之间相互独立 [^2]。 如果这些假设不成立,则可能需要对数据进行预处理或选择其他类型的模型。 #### 损失函数与优化 一元线性回归通常使用平方误差作为损失函数,定义如下: \[ L = \sum_{i=1}^{n} (\hat{y}_i - y_i)^2 \] 其中,\(\hat{y}_i\) 是模型的预测值,\(y_i\) 是真实值。目标是最小化该损失函数以获得最佳的参数 \(k\) 和 \(b\) [^3]。 #### 实现步骤 以下是使用 Python 和 `scikit-learn` 库实现一元线性回归的基本代码示例: ```python import numpy as np from sklearn.linear_model import LinearRegression from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error, r2_score # 假设 X 和 y 是已有的数据集 X = np.array([[1], [2], [3], [4], [5]]) # 自变量 y = np.array([2, 4, 6, 8, 10]) # 因变量 # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 创建线性回归模型 regr = LinearRegression() regr.fit(X_train, y_train) # 训练模型 # 预测 y_pred = regr.predict(X_test) # 评估模型性能 mse = mean_squared_error(y_test, y_pred) r2 = r2_score(y_test, y_pred) print(f"Mean Squared Error: {mse}") print(f"R^2 Score: {r2}") ``` #### 性能评估指标 常见的回归模型评估指标包括: 1. **均方误差 (MSE)**:衡量预测值与真实值之间的平均平方差。 2. **均方根误差 (RMSE)**:MSE 的平方根,单位与目标变量一致。 3. **平均绝对误差 (MAE)**:预测值与真实值之间的平均绝对差。 4. **决定系数 \(R^2\)**:衡量模型对数据的拟合程度,取值范围为 \(-\infty, 1\),值越接近 1 表示拟合效果越好 [^4]。 #### 注意事项 在实际应用中,需要注意以下几点: 1. 如果自变量和因变量之间的关系不是线性的,可以通过对特征进行变换(如取对数)来改善模型性能 [^2]。 2. 数据标准化可以提高模型的数值稳定性,尤其是在特征量纲不同的情况下 [^4]。 3. 对于小规模数据集,可能存在过拟合问题,可通过交叉验证等方法进行缓解 [^4]。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值