机器学习及实战——线性回归

线性回归(Linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。其实,还有梯度下降法、坐标轴下降法、最小角回归法等。


1.线性回归函数

线性回归遇到的问题一般是这样的。我们有m个样本,每个样本对应于n维特征和一个结果输出,如下:

    (x_1^{(0)}, x_2^{(0)}, ...x_n^{(0)}, y_0), (x_1^{(1)}, x_2^{(1)}, ...x_n^{(1)},y_1), ... (x_1^{(m)}, x_2^{(m)}, ...x_n^{(m)}, y_n)

    我们的问题是,对于一个新的(x_1^{(x)}, x_2^{(x)}, ...x_n^{(x)}, 他所对应的y_x是多少呢? 如果这个问题里面的y是连续的,则是一个回归问题,否则是一个分类问题。

    对于n维特征的样本数据,如果我们决定使用线性回归,那么对应的模型是这样的:

    h_\theta(x_1, x_2, ...x_n) = \theta_0 + \theta_{1}x_1 + ... + \theta_{n}x_{n}, 其中\theta_i (i = 0,1,2... n)为模型参数,x_i (i = 0,1,2... n)为每个样本的n个特征值。这个表示可以简化,我们增加一个特征x_0 = 1 ,这样h_\theta(x_0, x_1, ...x_n) = \sum\limits_{i=0}^{n}\theta_{i}x_{i}

    进一步用矩阵形式表达更加简洁如下:

    h_\mathbf{\theta}(\mathbf{X}) = \mathbf{X\theta}

    其中, 假设函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值