一、 多特征(变量)
n ::表示特征的数量
::训练集中第i个输入的特征向量
::第i个输入的特征向量中的第j个特征
二、 多特征值的线性回归的模型
映射函数如下:
代价函数:
梯度下降算法:
这里就会发现,原先n=1时,梯度下降还是可以计算的,但一旦n>1后,就不能如此的计算了
三、 特征范围控制----多变量的线性回归
目的:确保所有特征都在一个相似的范围内
1. 最值归一化 : X=X/max(X) 0<=X<=1
2. 平均归一化: X=X-avg(X)/[max(X)-min(X)] -1<=X<=1
四、 学习速率----多变量的线性回归
目的:确保递归下降能够正确的运行,如果学习速率过小,会在每一个局部迭代处收敛,导致收敛速度过慢;而如果学习速率过大,可能会陷入迭代循环,导致不收敛的情况。
目前寻找学习速率的方式为尝试 …,0.001,…,0.01,…,0.1,…,1,…;
Ps:自己的体会:对学习速率的