Python:【人工智能】【机器学习】带你从零到用代码实现线性回归问题

本文介绍了线性回归的基础理论,包括线性模型和最小二乘法参数估计。通过Python代码展示了如何实现一元及多元线性回归,并探讨了对数线性回归和广义线性模型的概念。还使用sklearn库进行了多元线性回归的实践应用。

​ 线性回归可以说是机器学习的入门理论之一,想用代码实现线性回归模型,我们先来了解一下它的理论吧。

线性模型

​ 线性模型(Linear model)试图学得一个通过属性的线性组合来进行预测的函数。

f(x)=w1x1+w2x2+...+wdxd+b向量形式:f(x)=wTx+b f(x)=w_1x_1+w_2x_2+...+w_dx_d+b\\ 向量形式:f(x)=w^Tx+b f(x)=w1x1+w2x2+...+wdxd+bf(x)=wTx+b


线性回归(Linear Regression)

f(x)=wxi+b使得f(xi)≈yi f(x) = wx_{i}+b\qquad使得\qquad f(x_{i})\approx y_{i} f(x)=wxi+b使f(xi)yi

令均方差误差最小化,有
KaTeX parse error: No such environment: split at position 8: \begin{̲s̲p̲l̲i̲t̲}̲ (w^{*},b^{*}…
E(w,b)=∑i=1m(yi−wxi−b)2E_{(w,b)}=\sum\limits_{i=1}^{m}(y_{i}-wx_{i}-b)^2E(w,b)=i=1m(yiwxib)2进行最小二乘法参数估计

分别对wwwbbb求导:
∂E(w.b)=2(w∑i=1mxi2−∑i=1m(yi−b)xi)∂E(w.b)=2(w∑i=1mxi2−∑i=1m(yi−b)xi) \partial E_{(w.b)} = 2(w\sum\limits_{i=1}^mx_i^2-\sum\limits_{i=1}^m(y_{i}-b)x_{i})\\ \partial E_{(w.b)} = 2(w\sum\limits_{i=1}^mx_i^2-\sum\limits_{i=1}^m(y_{i}-b)x_{i}) E(w.b)=2(wi=1mxi2i=1m(yib)xi)E(w.b)=2(wi=1mxi2i=1m(yib)xi)
令导数为0,得到闭式(closed-form)解:
w=∑i=1myi(xi−x‾)∑i=1mx2−1m(∑i=1mxi)2b=1m∑i=1m(yi−wxi) w=\frac{\sum\limits_{i=1}^my_i(x_i-\overline{x})}{\sum\limits_{i=1}^mx^2-\frac1m(\sum\limits_{i=1}^mx_i)^2} \qquad b=\frac1m\sum\limits_{i=1}^m(y_i-wx_i) w=i=1

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Alphy洪武

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值