03、线性回归模型(多个参数)——Linear Regression with Multiple Variables

03、线性回归模型(多个参数)——Linear Regression with Multiple Variables

多个参数(Multiple features):

xj:第j个特征(jth feature),在数据集上表示为一列;j ≤ n。

n:表示特征(feature)的个数(number of features);

x ⃗ \vec{x} x (i):表示第i个训练实例的特征向量(在数据集上体现为一行);(feature of ith training example)

x j i x_j^i xji:表示第i个训练实例的第j个特征的值。(value of feature j in ith training example)。


模型(Model):

一个参数的模型:

Previously: fw,b(x) = wx + b

当前的模型:

f( x ⃗ \vec{x} x ) = w ⃗ ⋅ x ⃗ + b \vec{w}·\vec{x} + b w x +b = w1x1 + w2x2 + … + wnxn + b

可以看到,现在的区别主要在于,一个参数的时候,我们是标量的乘积,在多个参数时,我们现在时向量的点乘(dot product)


向量化(Vectorization):

为什么要进行向量化呢?这能帮我们提高运行速率。

当我们没有向量化的时候,我们计算f,需要写一个循环,然后一遍一遍得累加w[j]x[j];

而当我们进行向量化后呢,我们可以直接运行点乘,是一个并行计算,效率会高很多。

w = ap.array([1.0, 2.5, -3.3])
b = 4
x = np.array([10, 20, 30])
# f = 0
# for j in rang(0,n):
# 	f = f + w[j]*x[j]
# f += b
f = np.dot(w,x) + b

向量化是通过numpy这个库所实现的


梯度下降:

one feature:

repeat{

w = w − α 1 m ∑ i = 1 m ( f ( x i ) − y i ) x i w = w - α\dfrac{1}{m}\sum\limits_{i=1}^m(f(x^i)-y^i)x^i w=wαm1i=1m(f(xi)yi)xi

b = b − α 1 m ∑ i = 1 m ( f ( x i ) − y i ) b = b - α\dfrac{1}{m}\sum\limits_{i=1}^m(f(x^i)-y^i) b=bαm1i=1m(f(xi)yi)

​ simultaneously update w,b

}

n features:

repeat{

w 1 = w 1 − α 1 m ∑ i = 1 m ( f ( x ⃗ i ) − y i ) x 1 i w_1 = w_1 - α\dfrac{1}{m}\sum\limits_{i=1}^m(f(\vec{x}^i)-y^i)x^i_1 w1=w1αm1i=1m(f(x i)yi)x1i

​ ·

​ ·

​ ·

w n = w n − α 1 m ∑ i = 1 m ( f ( x ⃗ i ) − y i ) x n i w_n = w_n - α\dfrac{1}{m}\sum\limits_{i=1}^m(f(\vec{x}^i)-y^i)x^i_n wn=wnαm1i=1m(f(x i)yi)xni

b = b − α 1 m ∑ i = 1 m ( f ( x ⃗ i ) − y i ) b = b - α\dfrac{1}{m}\sum\limits_{i=1}^m(f(\vec{x}^i)-y^i) b=bαm1i=1m(f(x i)yi)

​ simultaneously update wj (for j = 1,…,n) and b

}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

江弦凤歌

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值