梯度下降
多维情况
对于多维特征的时候,不同特征对应的取值范围可能会相差很大,这个时候对每个特征最好是进行变换,使得各个维度上的取值范围很相似。这时候的梯度下降速度才能得到保证,要不然很能会迭代很多次才能实现收敛。
可视化收敛判断
可以画出代价函数与迭代次数的函数图形
简单线性回归
模型形式:
代价函数:
梯度下降算法:
多元回归
模型形式:
代价函数:
梯度下降算法:
多元回归参数求解的正则实现
逻辑回归
模型形式:
其中函数 g(z) g ( z ) 是sigmoid函数,函数形式:
这样不论 z z 的取值如何,函数都会被映射到这个区间上。

代价函数和前面线性回归模型的代价函数形式一样吗?
逻辑回归的代价函数如果定义为如下的形式:
这对于一般线性模型可行的,但是对于逻辑回归却不行,原因是逻辑回归模型 hθ(x) h θ ( x ) 关于 θ θ 是 非凸函数,直接导致了代价函数也是非凸函数,直接求解参数的时候得到的是局部最优解,不是全局最优。所以要重新定义逻辑回归的代价函数。
逻辑回归代价函数:
重新定义逻辑回归的代价函数要从逻辑回归的本质来进行定义。首先是逻辑回归解决的是二分类的问题,采用模型预测的结果
hθ(x)
h
θ
(
x
)
很像是归为1类的概率。当
hθ(x(i))
h
θ
(
x
(
i
)
)
越接近于1的时候,我们就认为样本
i
i
归为1类的可能性就会越大。样本归为0类的可能性【也就是概率】是,到这里的时候我们就很容易的可以看出这就像是概率论上的伯努利分布。每个样本的分布函数如下:
下面要做的就是找到这样的参数 θ θ ,使得 P P 最接近于真实分布。这时就把逻辑回归的代价函数转化成了伯努利分布的极大似然估计问题。
逻辑回归的代价函数:
并且此时的代价函数是凸函数,不会得到局部最优解。
梯度下降算法:
下面的任务就是计算 ∂J(θ0,θ1⋯θn)∂θj ∂ J ( θ 0 , θ 1 ⋯ θ n ) ∂ θ j ,计算过程如下:

计算过程中用到了sigmod函数的导数和sigmod函数之间的关系:
最终的逻辑回归梯度下降算法如下:
可以看到最终的形式和线性回归的形式是相同的,虽然过程是完全不同的。